[go: up one dir, main page]

JP4247362B2 - Feature extraction device - Google Patents

Feature extraction device Download PDF

Info

Publication number
JP4247362B2
JP4247362B2 JP2002112229A JP2002112229A JP4247362B2 JP 4247362 B2 JP4247362 B2 JP 4247362B2 JP 2002112229 A JP2002112229 A JP 2002112229A JP 2002112229 A JP2002112229 A JP 2002112229A JP 4247362 B2 JP4247362 B2 JP 4247362B2
Authority
JP
Japan
Prior art keywords
image
sample
value
black
wavelength
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002112229A
Other languages
Japanese (ja)
Other versions
JP2003308515A (en
Inventor
利壽 小坂
利典 田中
淳 栗林
繁 大松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Glory Ltd
Original Assignee
Glory Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Glory Ltd filed Critical Glory Ltd
Priority to JP2002112229A priority Critical patent/JP4247362B2/en
Publication of JP2003308515A publication Critical patent/JP2003308515A/en
Application granted granted Critical
Publication of JP4247362B2 publication Critical patent/JP4247362B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Input (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は検査すべき試料、とりわけ紙面に文字や絵柄模様等が印刷された紙葉類の紙面を光学的に特性分析して特徴を抽出し且つ分類する装置に関する。
【0002】
【従来の技術】
紙幣、有価証券、切手等、紙葉を媒体として交換価値を体現させたものにあっては、その真贋鑑別が常に大きな問題となる。真贋あるいは同異を鑑別するにあたっては、その紙葉類の特徴が何であるかを適正に把握しておく必要がある。
【0003】
近年ではカラーコピー機、カラープリンタ、スキャナ等の性能向上と価格低下が進み、紙葉類の偽造を誘発しやすくなっている。そのため、市販のカラーコピー用トナーやプリンタインクには含まれない物質、例えば蛍光物質その他の機能性材料を用いて、通常の照明条件下では、且つ肉眼では見えないマーキングを施すといったことも行われる。これらのマーキングは当然に紙葉類の特徴を構成する。
【0004】
特開2001−52232号公報に記載された紙葉類真偽識別装置では、被識別紙の特定部位に紫外線を照射し、この紫外線照射部位からの透過光または反射光を波長選択フィルタにかけて特定の波長帯域の光のみフォトセンサアレイに受光させ、フォトセンサアレイの光出力信号に基づき被識別紙の紙質の真偽を識別し、また、紫外線照射によって蛍光を発生する蛍光体の真偽を識別し、両識別結果がいずれも真のとき、被識別紙を真としている。
【0005】
上記紙葉類真偽識別装置はフォトセンサの光出力信号により紙葉類に使われている紙が本物であるかどうかを識別する。ただしこの装置はすでに認知されている光学特性を確認するものであり、その紙の上の印刷図形までチェックするものではないため、紙葉類の真贋鑑別手法として万全であるとは言い難い。
【0006】
特開平4−288697号公報に記載された書類検査装置では、波長の異なった少なくとも2つの光部分を書類の共通区域上に向け、反射光または透過光を直線状検出器で検出する。
【0007】
上記書類検査装置は印刷図形を検査基準とすることができる。また複数個の検出器で反射光または透過光を検出し、検出器から来る信号を単独で、または適切な組合わせで評価するものであり、多面的な検査が可能である。しかしながら、複数個の検出器により得たデータをどのように関連づけて処理し、検査装置の機能を向上させるかについては、技術面での追求が十分になされているとは言い難い。
【0008】
また分光光度計等、広波長帯域で試料の光学特性を計測する装置は周知であるが、スポット状の計測エリアが設定されているのみであり、紙面全域の特性計測は難しい。また、単に測定時点の測定条件下での計測値を示すのみである。CCDカメラ等で試料紙面の光学画像を複数の波長で撮像する装置もあるが、検索波長帯域が狭い(400〜1000nm)。また試料面撮像画像を得るのみであり、各検索波長に対応する画像からの特徴抽出を行うものではない。
【0009】
従って、広波長帯域にわたる試料紙面の光学特性の検索と特徴抽出には、撮像波長帯域の異なる複数種のカメラからなる撮像装置と、これら複数種のカメラから各波長別に得られる多数枚の撮像画像を対象として特徴を抽出し更にはこれらの特徴を分類する演算装置が必要になる。例えば広い波長帯域の中から約100万画素の画像を7200枚撮像し、その全画像の特徴を抽出するとなると、膨大な労力と時間を要する。更には、これらの撮像画像が各々明るさや濃度勾配等のカメラ特性を異にしていた場合、特徴抽出は困難をきわめる。また、多数の試料から得た基準試料と新しい試料との光学特性の同異判定を行おうとしても、このような状況下では比較判定の作業自体が困難であり、十分に満足できる結果は得られなかった。
【0010】
【発明が解決しようとする課題】
本発明は、可視光領域にとどまらない広い波長帯域で試料の光学的特徴を抽出でき、しかも得られたデータの一元的な処理が可能で且つ演算装置のシステムリソースを効率的に活用できる特徴抽出装置及び特徴抽出システムを提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明特徴抽出装置は、試料を保持する試料ホルダと、紫外域から近赤外域にわたる波長域の光であって、段階的に波長が異なる複数種の光を検査光として前記試料に順次照射する照射手段と、前記試料の試料面を中心波長が異なる複数の撮像可能波長帯域で撮像して各々の波長帯域に対応する画像を取得する撮像装置とを有し、前記撮像画像から前記試料の光学的な特徴を抽出し、複数の画像の代表画像を得る特徴抽出装置であって、前記撮像装置は互いに撮像可能波長帯域が異なり、且つそれぞれ固有の光感受特性を有するとともに、1台のカメラの撮像可能波長帯域の一部が他の1台のカメラの撮像可能波長帯域の一部と重複して波長重複領域となった複数のカメラからなり、前記試料ホルダの撮像画像内に明るさレベルを示す白基準点と暗さレベルを示す黒基準点を設けるとともに、前記波長重複領域内で、その波長重複領域を有する両カメラで撮像した前記白基準点の白レベル値と前記黒基準点の黒レベル値の明るさ及び両基準点間の濃度勾配が所定レベル以上の近似度となるように前記撮像画像の濃淡値を同率に拡縮補正演算しつつ順次カメラ画像データを得る演算撮像手段を具備したことを特徴としている
【0012】
この構成によれば、複数のカメラによる広い波長帯域での光学特性の検索が可能となる。また、一方のカメラから他方のカメラへ切り替わっても画像の違いは小さく、同一の画像処理手法でこれら画像の光学的特徴が抽出できる。従ってカメラが複数であっても画像処理ソフトウェアとデータ蓄積部を一元化し、システムリソースの節約と処理のスピードアップを図ることができる。
【0013】
試料を試料ホルダに保持し、この試料に検査光発生装置の発生する検査光を照射し、この試料面を、前記撮像装置が所定の異なる波長帯域で撮像し、これら各波長帯域に対応する画像を取得するから、試料の光学的な特徴を抽出するのに必要な各波長帯域別の画像を確実に取得することができる
【0014】
前記試料ホルダの撮像画像内に明るさレベルを示す白基準点と暗さレベルを示す黒基準点とを設けるとともに、前記波長重複領域内で、その波長重複領域を有する両カメラで撮像した前記白基準点の白レベル値と前記黒基準点の黒レベル値の明るさ及び両基準点間の濃度勾配が所定レベル以上の近似度となるように当該撮像画像の濃淡値を同率に拡縮補正演算しつつ順次カメラ画像データを得るようにしたから、各撮像画像のダイナミックレンジが揃うこととなり、撮像手段の感度のバラツキ(明るさと濃度勾配において)をなくすことができる
【0015】
また本発明では、上記構成の特徴抽出装置において、前記試料面の特徴撮影に際して所定の撮影条件で先行撮影を行ってこの撮像画像を表示する先行撮像画像表示手段と、該先行撮像画像表示手段に表示された画像に白基準点の座標と黒基準点の座標を設定する基準点座標の設定入力手段を備え、前記設定入力手段により座標を設定された白黒両基準点の明るさ及び両基準点間の濃度勾配をこの後に得られる撮像画像濃淡値の同率拡縮補正演算の指標とすることを特徴としている
【0016】
この構成によれば、先行撮影画像を確認しつつその画像内の適切な座標位置に白基準点と黒基準点を設定できるから、この後に得られる撮像画像の濃淡値の同率拡縮補正演算の指標として適切な明るさ及び両基準点間の濃度勾配を有する白黒両基準点を設定することができる
【0017】
また本発明では、上記構成の特徴抽出装置において、前記演算撮像手段に関し、試料面から得られる撮像画像につき白黒両基準点の白黒両レベル値の差を求めるとともに、この差が予め設定された値以下の場合、白黒両レベル値に所定の設定値を加減演算して得た第2の所定レベル値に対し拡縮補正演算を行うこととして、濃淡レベル値が微小な撮像画像の過大な階調演算補正を防止するようにしたことを特徴としている
【0018】
この構成によれば、濃淡レベル差の微小な画像、すなわち殆ど全面白又は黒といった画像が得られた場合、微小な濃淡特性が異常に拡大補正されることをなくし、異常に補正された画像の混入による無意味な特徴抽出及び/又はこれらの特徴の同類分類演算がなされることを防止できる
【0019】
本発明特徴抽出システムは、試料を保持する試料ホルダと、紫外域から近赤外域にわたる波長域の光であって、段階的に波長が異なる複数種の光を検査光として前記試料に順次照射する照射手段と、前記試料の試料面を中心波長が異なる複数の撮像可能波長帯域で撮像して各々の波長帯域に対応する画像を取得する撮像装置とを有し、前記撮像画像から前記試料の光学的な特徴を抽出し、複数の画像の代表画像を得る特徴抽出システムであって、
前記試料ホルダ、前記照射手段と前記撮像装置を備え、前記撮像装置は互いに撮像可能波長帯域が異なり、且つそれぞれ固有の光感受特性を有するとともに、1台のカメラの撮像可能波長帯域の一部が他の1台のカメラの撮像可能波長帯域の一部と重複して波長重複領域となった複数のカメラからなり、前記試料ホルダの撮像画像内に明るさレベルを示す白基準点と暗さレベルを示す黒基準点を設けている本体部と、前記波長重複領域内で、その波長重複領域を有する両カメラで撮像した前記白基準点の白レベル値と前記黒基準点の黒レベル値の明るさ及び両基準点間の濃度勾配が所定レベル以上の近似度となるように前記撮像画像の濃淡値を同率に拡縮補正演算しつつ順次カメラ画像データを得る演算装置と、前記本体部と前記演算装置を接続し、前記本体部で得られた撮像画像を前記演算装置に集める通信回線と、を有することを特徴としている
【0020】
この構成によれば、演算装置を本体部から離れた任意の箇所に設置することが可能になる
【0027】
【発明の実施の形態】
以下図に基づき本発明の一実施形態を説明する。最初に、図1〜7により構造の説明を行う。
【0028】
特徴抽出装置1は本体部2と演算装置3を備える。本体部2はハウジング10を有し、その内部の構成要素はブロック構成で見ると図7に示すように光学セクション11と制御セクション12に区分される。図1〜6には専ら光学セクション11に含まれる構成要素を図示する。
【0029】
本体部2のハウジング10は複数個のキャスタ21により床面上に移動可能に支持されている。ハウジング10の一部には扉22があり、この扉22を開けて試料ホルダ23を出し入れする。扉22を閉めればハウジング10の内部は暗室状態になる。試料ホルダ23は紙幣、有価証券、切手等の紙葉類の試料をその被検査面が垂直になるように保持する。この被検査面に検査光を照射し、反射光(蛍光物質の励起光があれば、その励起光も含む)を撮像する。続いて、段階的に波長が異なる複数種の光を検査光として試料に照射する照射手段として機能する検査光発生装置30及び、試料面を異なる波長帯域で撮像して各々の波長帯域に対応する画像を取得する撮像手段として機能する撮像装置50の構成を説明する。
【0030】
検査光発生装置30の光源部31は250〜2,000nmの波長域の光を発する。このような広い帯域の光を単一のランプで発生させることはできないので、キセノンランプ32とハロゲンランプ33の2種類のランプを使用する(図4、5参照)。キセノンランプ32は250〜380nmの検査光を得るのに用い、ハロゲンランプ33は381〜2,000nmの検査光を得るのに用いる。
【0031】
キセノンランプ32とハロゲンランプ33はランプハウス34の中に向かい合わせに配置されている。電源投入後ランプが所定のスペクトルの光を放つようになるまでには時間がかかるので、ランプの切り替えの度にランプを点灯したり消灯したりするのでなく、装置稼働中は両ランプとも連続点灯させておき、必要な側の光をその都度可動ミラーで反射させて取り出すようにしている。35がその可動ミラーであって、反射面をキセノンランプ32に向け45゜の角度に置く図4の位置と、反射面をハロゲンランプ33に向け45゜の角度に置く図5の位置とに、図示しないモータ又はソレノイドにより切り替えられる。可動ミラー35に当たった光は直角に向きを変え、ランプハウス34の一側面の出射窓36を通ってレンズハウス37に入る。
【0032】
レンズハウス37の中のレンズ群により発散角度を整えられた光は分光器38に入る。分光器38は収差補正型の零分散ダブルモノクロメータであって、駆動波長域は250〜2,000nm、半値幅は30nm又は60nm、分解能は15〜30nmに設定されるが、必要時には「光源の全波長域を含む白色光」に設定することもできる。分光器38から出射される所定の波長帯域の光が検査光となる。
【0033】
分光器38の出射窓にはレンズハウス39が連結される。レンズハウス39の中に配置されるレンズ(図示せず)は検査光の発散角度を調整するためのものであって、試料ホルダ23において180mm×180mmのエリアを照射するときと、同じく50mm×50mmのエリアを照射するときとで発散角度を切り替える。
【0034】
レンズハウス39を出た検査光は固定ミラー40、41で反射を繰り返しながら空間内を進み、試料ホルダ23に保持された試料を照射する。試料の被検査面で反射・吸収された光が撮像装置50に入る。
【0035】
前述のとおり検査光の帯域は250〜2,000nmにわたるが、ここまで広い感受域を備えた撮像手段は存在しないので、2種類のカメラをもって撮像装置50を構成する。その一方はCCDカメラ51であり、図2、3に見られるように試料ホルダ23の真正面に配置される。他方は赤外線カメラ52で、試料ホルダ23の真正面から水平方向にずれた位置に、CCDカメラ51と平行に並ぶ形で配置される。
【0036】
シリコン撮像素子等からなるCCDカメラ51は波長250〜1,000nmの反射光を撮像するのに用いる。白金インジウム又はインジウムアンチモン等からなる撮像素子を有する赤外線カメラ52は1,000〜2,000nmの反射光を撮像するのに用いる。これらのカメラは約65,000(≒256×256)ピクセルから約100万(≒1024×1024)ピクセル、あるいはそれ以上の画素数を有し、分析すべき試料面を256階調以上の濃淡細密画像として撮像入力する。
【0037】
カメラの切り替えは図2、3に示す可動ミラー53により行う。可動ミラー53は図示しない駆動機構により水平方向に移動するものであり、図2の位置にくると試料ホルダ23からの反射光は真っ直ぐCCDカメラ51に届く。可動ミラー53が図3の位置にくると反射光は可動ミラー53により直角に曲げられ、固定ミラー54でもう一度直角に曲げられて赤外線カメラ52に届く。
【0038】
55a、55b、56a、56bは図示しない駆動機構により試料ホルダ23とCCDカメラ51、及び固定ミラー54と赤外線カメラ52との間の各光路に出没する収束レンズである。収束レンズ55a、56aは照射エリアが180mm×180mmであった場合の反射光を収束するときに用い、収束レンズ55b、56bは照射エリアが50mm×50mmであった場合の反射光を収束するときに用いる。
【0039】
なお図1、2、3において収束レンズ55aと55bの組み合わせが同時に、又は収束レンズ56aと56bの組み合わせが同時に、光路中に存在するように描かれているが、これは単に図示の都合によるものであって、実際には各々組み合わせの一方のみが光路中に進出し、他の一方は光路外に退避している。
【0040】
収束レンズ55a、56aを使用したときと収束レンズ55b、56bを使用したときとでCCD又は赤外線撮像素子上の受光面積及び/又は結像位置が若干変化するため、図示しない駆動機構によりこれらカメラ51、52を光軸に沿って移動させ、前記変化に対応した補償を行うようにしている。なおカメラを移動させる代わりにズームレンズ機構を使用してもよい。
【0041】
撮像する光を所定の波長域に絞り込むため、CCDカメラ51には分光器(紫外可視イメージ分光器)57が組み合わせられ、赤外線カメラ52にはバンドパスフィルタ(近赤外バンドパスフィルタ)58が組み合わせられる。分光器57は半値幅30nm、分解能15nmである。バンドパスフィルタ58は半値幅30〜60nm、分解能30nmである。なお、これら分光器57及びバンドパスフィルタ58は光源側の分光器38と同様に全波長域光を選択する機能も有する。
【0042】
図6にバンドパスフィルタ58の構造例を示す。これは、各々図示しないモータによりインデックス回転せしめられる3台のタレット59a、59b、59cを組み合わせたものである。各々のタレット59a、59b、59cは13枚ずつのフィルタホルダ60を放射状に保持し、各1枚のフィルタホルダ60を光路に一致させる。図6においてハッチングを施した円(円はフィルタを表す)が光路の位置を示す。
【0043】
タレット59a、59b、59cの保持する13枚ずつのフィルタホルダ60のうち、12枚には通過波長の帯域を少しずつ異ならせたフィルタ61を取り付け、残り1枚は全波長域用として素通しとする。タレット59b及び59cで素通しのフィルタホルダ60を選択すれば、タレット59aのフィルタ12種を単独使用できる。タレット59a及び59cで素通しのフィルタホルダ60を選択すれば、タレット59bのフィルタ12種を同様に単独使用できる。タレット59a及び59bで素通しのフィルタホルダ60を選択すれば、タレット59cのフィルタ12種を同様に単独使用できる。またタレット59a、59b、59cのすべてで素通しのフィルタホルダ60を選択すれば全波長域光が選択される。
【0044】
次に図7に基づき特徴抽出装置1のブロック構成を説明する。
【0045】
本体部10の制御セクション12はランプ制御部70、ミラー制御部71、レンズ制御部72、照射側分光器制御部73、撮像側分光器制御部74、及びカメラ制御部75を備える。ランプ制御部70はキセノンランプ32とハロゲンランプ33の点消灯を制御する。ミラー制御部71は可動ミラー35、53の動作を制御する。レンズ制御部72はレンズハウス39の中のレンズと収束レンズ55a、55b、56a、56bの動作を制御する。照射側分光器制御部73は分光器38の動作を制御する。撮像側分光器制御部74は分光器57とバンドパスフィルタ58の動作を制御する。カメラ制御部75はCCDカメラ51と赤外線カメラ52の露出時間その他の撮影条件の設定及び撮像を制御する。
【0046】
演算装置3のブロック構成は次のようになっている。80は中央処理部で、マイクロプロセッサと記憶装置を備え、演算装置3を制御するとともに、プログラムによってデータを処理し出力する。81は操作部で、これはキーボード等の入力手段、及び演算装置3の本体筐体に設けられた各種スイッチにより構成される。82は表示部で、CRTや液晶等のモニタと、演算装置3の本体筐体に設けられた発光ダイオード等の表示手段により構成される。演算装置3と本体部2とは図示しないケーブルで接続され、互いに信号を交換する。
【0047】
83〜88は中央処理部80のシステムリソースをそのまま利用して、あるいは中央処理部80のシステムリソースにハードウェア要素を付加して構成されるデータ処理ブロック群である。83はA/D変換部で、これは撮像装置50から伝達された画像のアナログデータをデジタルデータに変換するものである。84はCCDカメラ51及び赤外線カメラ52を適正に制御するとともにCCDカメラ51で得た画像データと赤外線カメラ52で得た画像データを一元化し、併せて別途選択設定される必要サイズの入力画像として切り出すとともに、画像サイズを圧縮する補正演算部である。85は補正演算部84で演算を行うための補正係数等のパラメータを記憶する補正データ記憶部である。86は上記必要サイズに切り出された画像、圧縮された画像、及び画像の特徴抽出のために加工演算される一時的な中間画像を保持するイメージバッファ部である。87は特徴の抽出を行うための画像解析部、88は特徴が明確であるとして選択された代表画像及び関連データを格納する代表データ格納部である。
【0048】
次に特徴抽出装置1の操作につき説明する。まず本体部2の扉22を開けて試料ホルダ23を取り出し、紙葉類の試料を取り付ける。試料を取り付けた試料ホルダ23をハウジング10内の所定の位置にセットし、扉22を閉める。それから、試料を検査光で照射し、そこから反射した光を撮像装置50で撮像する。
【0049】
検査光発生装置30は250〜2,000nmという、紫外域から近赤外域にわたる広い波長域の光を、全波長光(白色光)又は所定ピッチで中心波長をずらしつつ所定帯域の検査光として選択的に順次発生する。試料面は検査光に応じた見え方をする。例えば紙を構成する物質の中に、あるいは印刷インクの中に蛍光物質が含まれていた場合、その蛍光物質は特定波長の検査光に反応して励起光を発する。この励起光と反射光を合わせた光画像を分光器57又はバンドパスフィルタ58に通し、特定波長光の濃淡画像としてCCDカメラ51又は赤外線カメラ52で撮像する。
【0050】
図8は照射する検査光の波長域をずらしつつカメラ側の分光器及びバンドパスフィルタを素通しで、すなわち全波長域光として撮像したときの紙葉類の画像の変遷を例示する。(a)では紙葉類本来のパターンは全く見えず、蛍光物質の励起によるパターンが右下に見えているのみである。(b)→(c)→(d)→(e)→(f)と検査光の波長が長くなるにつれ、紙葉類本来の目視可視光パターンが徐々に見え出し、励起光パターンは消える。(g)で紙葉類本来のパターンが最も鮮明で明るい像が得られる。以後、(h)→(i)→(j)→(k)と検査光の波長が長くなるにつれ、画像は鮮明さと明るさを失う。(l)では近赤外線にのみ感応するパターンが見えるだけとなる。
【0051】
図8はあくまでも説明用に単純化した作図例であって、現実の画像がこれと同じような変遷をたどる訳ではない。実際の紙葉類を250nmから2,000nmの波長にわたり撮像した画像群はこれよりはるかに複雑な変化を示す。
【0052】
前述のとおり、検査光発生装置30は段階的に波長が異なり且つ帯域の狭い複数種の光を順次検査光として、又は全波長光(白色光)を検査光として、照射する。検査光の中心波長を250〜2,000nmの間に86段階(その内1段階は全波長光)設定し、撮像側でも分光器57とバンドパスフィルタ58とを通算して86段階(その内1段階は全波長光)の通過波長帯域が設定されるものとすると、86×86=7,396通りの画像が撮像されることになる。
【0053】
さて、特徴抽出装置1により撮像波長帯域の異なる多数の画像を取得することが可能であるが、例えば画素数が約100万で、各画素の濃淡階調が数万といった細密画像データの全てを当該紙葉類の特徴として扱うとなると膨大なメモリが必要となるうえ、後で同種の紙葉類の真贋あるいは同異を鑑別するに際してもこのように沢山のデータを特徴として格納していたのでは照合に時間がかかりすぎることになる。第一、同一種の試料同士であっても印刷には位置ずれやかすれがつきものであり、全く同じ印刷状態であるとは限らない。また、使用すれば色褪せが生じたり皮脂等の汚れ成分が付着したりし、撮像した画像に相違が生じるということが十分にあり得、同一種の試料でも偽造券として排除することにもなりかねない。従って、特別に微細な高精度の特徴検索を行うとき以外は、抽出すべき特徴は細密微細な光学的特性を保持しつつも画像サイズ及び/又は濃淡階調度を圧縮してある程度大ぐくりなものにし、許容範囲を持たせた方がよい。
【0054】
そこで演算装置3は、必要なサイズに切り出されてイメージバッファ部86に入力された多数の切り出し画像及び/又は圧縮画像につき所定のルールに従い、特徴抽出に基づく同類分類演算を行い、当該紙葉類の特徴を特に明確に現している画像を代表画像として代表データ格納部88に格納する。以下、自動的に特徴を抽出する演算方法につき説明する。
【0055】
特徴抽出及び同類分類のため、画像間の差分を用いる。図9に差分による分析の概念を示す。すなわち、ある画像と他の画像との間のデータの差異に着目する。第1の画像が「ABCDEF」のデータを持ち、第2の画像が「ABDEF」のデータしか持っていないとすれば、両者の差分は「C」となる。この差分「C」を材料として分析を行うものである。
【0056】
差分のデータとしては各画像の対応する画素別の「明るさ」についての差値(差分値)とこれら各差分値の度数(各差分値別のデータ数)を求める。本実施形態では「明るさ」が「明るい」とは、撮像した波長帯域において反射光の量が多いということを意味する。つまりその撮像波長帯域で現れるべき特徴的なパターンがより明確に表れているということである。「明るい」を「濃い」と言い換えることもできる。また「度数」は、その差分値を備えた画素の数を示す。
【0057】
以後の演算は実際の画素における明るさをデジタル値に変換した256階調のAD値により行う。従って、2画像間の「明るさ」の差分値は図10に示すように−255〜+255のAD値のいずれかに置き換えられる。
【0058】
演算においては各差分値のAD値と度数との積を求めたうえで積の総和を求めるのであるが、このとき、AD値に正負の符号を付したまま積を求める場合(図10に示した例がこれに該当する)と、AD値の絶対値である「指数」に関する積を求める場合(図11に示した例がこれに該当する)とがある。ここでは、前者の場合の積の総和を「積和」、後者の場合の積の総和を「指数和」と称する。
【0059】
指数を用いて演算を行う場合、演算を容易にするため、差分の差がさらに強調されるようにする。図11にその手法の一例を示す。図11では差分値の絶対値を求めたうえで、そこからさらに一定の値を減じたものを「差分値指数」としている。マイナスの値が出る場合は差分値指数を「ゼロ」とする。
【0060】
図11では「一定の値」を「30」に別途に設定しており、これにより、差分値において−30から+30までの区間はノイズ成分として差分値指数においてはすべて「ゼロ」となる。すなわち差分値が−30から+30までの画素(ピクセル)はすべて許容誤差域内の同一画素として取り扱われる。従って、近似画像間におけるノイズの影響が排除され、差分値が±30以上となる真に差を持った画素のみが別画像として認識される要素となる。差分値と差分値指数の関係をグラフ化したものを図12に示す。
【0061】
差分値に基づき特徴を抽出し、特徴を特に明確に表している画像を代表画像として選定する手法を図13により説明する。図13には8枚の画像が示されている。これらの画像は、所定ピッチで中心波長を異ならせた波長帯域毎に撮像を行い、波長順に並べたものである。画像Pi-4は明るさが暗く、そこからPi-3、Pi-2とPiに近づくにつれ次第に明るさが増し、画像Piでピークを迎える。画像Piを過ぎると、画像Pi+3まで順次明るさが減少して行く。すなわち、黒画像から人物像が徐々に浮かび上がり、その後徐々にフェードアウトして黒画像に戻る様子を例示している。画像の明暗が反転していた場合でも動作は上記同様となるものであり、詳細説明は略す。
【0062】
隣接画像間の差分値と各差分値指数別の度数の積の総和(積和)をDiで表す。「明るさ小」から「明るさ大」への変化は「プラス」、その逆は「マイナス」と表される。積和Diは対比した両画像の相違量を示すものである。
【0063】
以下に説明するのは、前述の積和が別途定められたしきい値より小さく、同類画像と判定される場合の代表画像の選定処理手順である。
【0064】
画像Pi-4とPi-3、Pi-3とPi-2、Pi-2とPi-1、Pi-1とPiの間の積和Diはいずれも「プラス」すなわち人物像の浮かび上がりの領域にある。ところがPiとPi+1の間になるとDiが「マイナス」すなわち人物像のフェードアウトの領域に転じ、Pi+1とPi+2、Pi+2とPi+3の間も「マイナス」を維持する。「明るさ小」から「明るさ大」へと移ってきた趨勢が画像Piと画像Pi+1の間で逆転したためにこのような結果になったものであり、画像PiとPi+1の間が変化点ということになる。
【0065】
変化点の直前に位置する画像Piは前後の画像群の中で最も明るくくっきりしている。すなわちこの画像群に共通する特徴が最も識別しやすい形で表れたものであるから、これを代表画像として採用するとともにPi-4、Pi-3…Pi+4を同類画像として代表データ格納部88に格納登録する。
【0066】
次に説明するのは、前述の指数和が別途定められたしきい値より大きく、同類画像でないと判定された場合の代表画像の選定処理手順である。
【0067】
図14は「明るさ小」から「明るさ大」へと変化してきたグループ1の画像群が画像Piと画像Pi+1の間で突如同類でないグループ2の画像群に転換してしまった場合を示す。この場合上記指数和は別途定められたしきい値より大きくなる。このときは前述のようにグループ1の画像群のうち最後の画像Piが代表画像として登録される。画像Pi-4、Pi-3、Pi-2、Pi-1は同類画像として画像データ以外の情報のみが代表データ格納部88に格納登録される。
【0068】
上記作業を繰り返し、250〜2,000nmの波長域にわたって取得した多数の画像群から何種類かの代表画像とその同類画像を抽出して同類画像情報と共に代表データ格納部88に格納登録する。
【0069】
このようにして1枚の試料から光学的な特徴が自動的に抽出され、その特徴を良く表した画像を代表画像として仕分け格納することになるが、この一連の画像解析は図15のフローチャートに従って遂行される。
【0070】
図15のステップS101では「今回の画像」と「前回の画像」との各画素毎の差分値を全画素にわたり求める。「今回の画像」は現在解析を行おうとしている解析画像(解析の対象とする画像)、「前回の画像」は直前に解析を行った解析画像のことである。「前回の画像」は既にいずれかの代表画像と同類であることが見いだされているものとする。ステップS102では図11の手法により求めた差分値の値を強調した差分値指数と各差分値指数別の度数との積の絶対値総和を指数和として求める。ステップS103ではその指数和が所定のしきい値以上であるかどうかを判定する。予め定められたしきい値に達していなければ、今回の画像と前回の画像と類似であるとしてステップS104に進む。
【0071】
ステップS104では今回の画像が前回の画像よりも「明るい」かどうかを判定する。前述のとおり、「明るい」とは撮像した波長帯域において反射光の量が多いということを意味する。つまりその撮像波長帯域で現れるべき特徴的なパターンがより明確に表れているということである。「明るさ」比較においては指数和でなく、正負の符号を付した差分値と度数との積の総和(図10の積和)を用いる(ステップS105、ステップS106においても同様)。
【0072】
今回の画像が前回の画像よりも明るければステップS105に進む。ここでは前回の画像と同類関係にある代表画像と今回の画像との各画素毎の差分値を全画素にわたり求め、明暗を比較する。その結果、ステップS106で今回の画像の方が代表画像よりも所定値以上に明るいと判定されればステップS107へと進む。
【0073】
ステップS107では当該類似グループの代表画像を更新し、今回の画像を新たな代表画像とし、これまで代表画像であった画像を新しい代表画像に同類登録する。
【0074】
ステップS104において今回の画像が前回の画像より明るくなかった場合はステップS108に進む。そして前回の代表画像と同類であると登録される。
【0075】
ステップS106において、今回の画像が代表画像よりも所定値以上に明るい訳ではないと判定された場合にもステップS108に進む。そして前回の代表画像と同類であると登録される。
【0076】
ステップS103で、指数和が所定のしきい値以上であると判定されれば今回の画像と前回の画像とは非類似ということになり、ステップS109に進む。
【0077】
ステップS109では当該試料に関してこれまで及び/又は今回の特徴抽出工程で登録した全代表画像と今回の画像とを積和でもって照合し、最小差分代表画像を最近似画像として探し、ステップS110に進む。
【0078】
ステップS110では最近似の代表画像を今回の画像の代表画像に仮設定するとともに、この仮設定代表画像と今回の画像との各画素毎の差分値を全画素にわたり求める。ステップS111では図11の手法により求めた差分値の値を強調した差分値指数と各指数別の度数との積の総和を指数和として求める。ステップS112ではその指数和が所定の判定値以上であるかどうかを判定する。予め定められた判定値に達していなければ、仮代表とした最小差分代表画像と今回の画像が類似であるとしてステップS108に進み、前記同様の処理が実行される。
【0079】
ステップS112で指数和が所定の判定値以上であれば、仮代表とした最小差分代表画像と今回の画像が非類似であるとしてステップS113に進む。そして今回の画像は新たな代表画像として登録される。
【0080】
画像データは、代表画像については特徴抽出演算に用いた詳細な画像の全データを残す。また、代表画像以外の画像については、各々代表画像との照合データ(光学特性の特徴抽出条件等の類分け情報)のみ残し、画像データそのものは消去し得るようにする。これにより1枚の試料に費やすメモリの量を節約可能とする。
【0081】
特徴抽出装置1では、代表画像に対応するカメラからの読み出し画像を代表実画像として併せて記憶保持する。前後画像の差分値算出及びその他の分類仕分け演算を別途設定した圧縮画像データに基づき簡易に高速処理するにしても、詳細なカメラ画像データがそのまま代表実画像として保持されているので、更に別の演算仕様で再仕分け演算することとなった場合、各々の代表実画像データと照合データから精度の高い特徴抽出を行うことが可能となる。
【0082】
特徴抽出装置1では、新たな試料につき抽出特徴を用いて同異識別する必要が生じたときは、所定ピッチで投光する光及び/又は受光する光の中心波を異ならせつつ、各々の波長帯域毎に新試料の紙面の光学特性を強調した撮像を行う。そして基準となる標本試料の代表画像を取得し、この代表画像に所定の波長域で近似する画像を取得できたかどうかをチェックする。更には各々の代表画像の同類画像の発現帯域を必要箇所で同異チェックし、照合判別を行う。また、特異な特徴を有する多数枚の同類試料を散発的に分割して検査する場合にも、前述のとおり、広い波長帯域にわたる試料の特徴が一元的に抽出分類されているので、各検査時の特性の一致照合が容易であり、短時間で正確に照合判定を行うことが可能である。
【0083】
ここで、図25の撮像ログ事例を用いて照合データの説明を行う。撮像ログは検索仕様部と撮像データのインデックス部とで構成されている。「検索番号」は試料毎又は、検索単位毎に割り当てられる番号である。「試料サイズ」は撮像する試料の大きさを示し、本例では50mm×50mmとなっている。「照射波長」の記載は波長範囲が250〜970nmであり、30nmピッチで変化することを示している。「カメラ」はCCDカメラと赤外線カメラのうち、CCDカメラを使ったことを示す。「CCD画像サイズ=4×4(256×256)」は4画素×4画素を1単位として縦横256画素の領域として取り扱うことを示している。「CCD露光時間」は30mSである。「CCD露光時間自動調整=0」とあるのは自動調整がオフであることを示す。「CCD検波波長」にはスウィープ開始波長、スウィープ終了波長及び撮像波長ピッチの数値が入るが、本例では全て0となっている。これは全波長(白色光)の設定であることを示す。
【0084】
「MEMO」の欄には任意の文字を入力し、後で参照することができる。「画像枚数」は上記照射波長等の設定内容で算出される撮像枚数で、本例では撮像画像枚数が25枚あり、測定条件を違えたものが25種存在することを示している。「CCDクーラー温度=−39」とあるのはCCD撮像素子の冷却温度が−39゜Cであることを、「IRクーラー温度=0」とあるのはIR撮像素子を使用しないことを、それぞれ示す。「切出位置」は撮像画像の有効領域内の座標を示し、本例では「10、33、229、233」と設定されている。「白基準位置」は白基準の画像域を示し、本例では「119、39、127、47」で表される矩形領域となっている。同様に「黒基準位置」は「123、238、131、246」で表される矩形領域となっている。「folder」は撮像画像データを格納するハードディスク内のフォルダ名で、検索番号を使用している。
【0085】
後半の撮像データのインデックス部では「検索開始」から「検索終了」までの各画像に連続番号を付し、撮像条件を記録している。例えば00000003番の行を説明すると次のようになる。「17:28:50」は撮像時刻で、17時28分50秒に撮像したことを示す。「F=MCX0250−0000.BMP」は、BMP形式の画像ファイルであることを意味し、このファイル名で実画像データが格納されており、撮像手段はCCD撮像素子、ランプはキセノンランプ、照射光の波長は250nm、受光側は全波長領域光を通過させていることを示す。
【0086】
ファイル名に続くデータの読み方は次のとおりである。「T=30.0」は露光時間が30.0mSであることを示す。「W=636」は上述の条件における白基準位置の白基準の読み取り値が636AD値であることを示す。「B=621」は同じく黒基準位置の黒基準の読み取り値が621AD値であることを示す。「S=735>>601」は補正すべき有効ダイナミックレンジの値である。補正されると735ADから601AD値の間で256階調にダイナミックレンジをとることになる。末尾の「OK」は正常撮像画像であることを示す。
【0087】
図25に示すデータの中で、光学特性の特徴抽出条件の照合データとしてファイル名データ及びそれに付属する撮像条件のデータのみ残し、実際の画像データを消去することにより、メモリを節約することができる。
【0088】
さて、CCDカメラ51と赤外線カメラ52はそれぞれ固有の光感受特性を有する。それを観念的に示したのが図16である。図16は波長帯を横軸にとり、感度を縦軸にとっている。両カメラの撮像可能波長帯域は1,000nm近辺で重複し、その中の1,000nmを切り替え点として両カメラを切り替え使用する。ところがそのままでは切り替え点において、画像の明るさと濃度勾配は、CCDカメラ51で撮像した画像と赤外線カメラ52で撮像した画像とでは全く異なったものとなる。このままでは同一条件で2種類の画像データがあるということになり、画像処理ソフトウェアとデータ蓄積部が二元化し、演算装置3のシステムリソースを余分に費消する。
【0089】
そこで本発明では、切り替え点におけるCCDカメラ51と赤外線カメラ52の撮像画像の近似度が所定レベル以上になるよう、すなわち、あたかも単一のカメラをもって切り替え点をまたぐ撮像が行われたかのように一方又は双方のカメラを補正する。具体的にはカメラの露光時間を調整して画像の明るさを補正し、また感度とゲインを調整して濃度勾配を補正する。明るさと濃度勾配は一方だけ補正してもよく、両方補正してもよい。切り替え点を離れても撮像特性はフラットな方が望ましいので、各波長帯で補正を行う。この補正後の感度特性を観念的に示したのが図17である。
【0090】
画像の明るさや濃度勾配を補正するには、撮像面の一部に予め明るい方(白)の基準点と暗い方(黒)の基準点を定め、両方のカメラの読み取り値が明るい方は明るい方、暗い方は暗い方で同一レベルになるように補正する必要がある。基準点を定めるにあたっては、次の2手法のうちいずれかを用いる。
【0091】
図18に示す手法では、試料の特徴撮影に際して予め設定された撮影条件で先行撮影を行ってこの撮像画像を表示せしめ、この試料の画像面の中に基準点の座標を設定する。演算装置3の表示部82が先行撮影の撮像画像を表示する先行撮像画像表示手段となる。操作部81に含まれるキーボード等の入力手段が基準点の座標を設定する設定入力手段となる。
【0092】
90が試料の画像であって、その中の明るい部分に白基準点91を、暗い部分に黒基準点92を、それぞれ設定する。CCDカメラ51で撮像した画像の白黒基準点91、92と赤外線カメラ52で撮像した画像の白黒基準点91、92とを比較した場合、両カメラによる両基準点の明るさ及び基準点91、92間の濃度勾配(濃淡階調差)が所定レベル以上の近似度となるようにカメラ制御値の補正を行う。
【0093】
図19に示す手法では試料面外の所定位置に位置するよう試料ホルダ23に別途配置された白黒基準マーカを用いる。すなわち白基準マーカ93と黒基準マーカ94が撮像エリアにあり且つ紙葉類の試料によって覆い隠されない場所に取り付けられており、試料の画像とともに白黒基準マーカ93、94の画像も取り込まれる。この白黒基準マーカ93、94の画像に基づき上記と同様にカメラ制御値の補正を行う。
【0094】
カメラ制御値の補正については、各カメラの各々の撮像画像間でも同様の補正で所定の近似度が得られる。また、カメラの各波長帯域別の感度差及び/又は光源ランプを切り替えた場合にも同様に近似画像が得られる。
【0095】
光蓄積時間調整はいわゆる時間可変のシャッター機能を備えたCCDを利用することにより実現できる。図20及び図21を用いて本実施形態におけるCCD、赤外線両カメラの露光時間自動設定の手順を説明する。本実施形態では図21に示すとおり、別途設定された許容最大露光時間(Tm)内で、得られる画像の白レベル値(wn)が目標として別途設定された基準画像の白レベル値(W)の所定許容値(基準白レベル値±30%)に収まるよう露光時間が自動的に選択設定される。
【0096】
まず所定露光時間(T1)での撮影の白レベル値(w1)を得て(ステップS201)、目標とする基準白レベル値(W)と比較する(ステップS202)。この比較において、両レベルの差が前記所定許容値内であればこの画像は適正画像であるとされて露光時間自動設定は終了する(ステップS203)。他方、許容値外であれば、比較における両レベルの差の各値別に予め設定された予測適正露光時間テーブルから対応する適正露光時間(Tf)が予測設定され(ステップS204)、この撮影の白レベル値(wf)を得る(ステップS205)。なお、前記適正露光時間(Tf)は後述の数式を用いて決定することもできる。
【0097】
次に、この新たな白レベル値(wf)と前記の基準白レベル値(W)とが再度比較され(ステップS206)、前記許容値内の場合は適正画像とされて露光時間自動設定は終了する(ステップS207)。本実施形態では、露光時間(Tf)での撮像画像の白レベル値(wf)が適正でない場合は、前記同様に更に適正な露光時間(Te)を再予測して撮影し(ステップS208)、これを最終的な露光時間とし、これ以上には同様の露光時間適正化は行わない。すなわち、照射光源光、光学光路、及び/又はカメラの不良によりもたらされた撮像画像濃淡値の異常変動等により、露光時間の適正化再予測撮影が無限に続くことを防止している。本実施形態ではこの最終的な露光時間(Te)での撮像画像の白レベル値(we)と目標とした基準白レベル値(W)との差値が別途設定した所定近似値以下かどうかで確認を行っている(ステップS209〜S212)。
【0098】
また、露光時間を変更しても各撮像画像の白レベル値にそれに見合う変化が得られない場合にもこれを検知してアラームを作動させるようにしている。更に、前記の予測適正露光時間が許容最大露光時間(Tm)をオーバーした場合もこれを検知してアラームを作動させるが、詳細説明は省く。
【0099】
なお、適正露光時間(Tf)は次式から算出できる。
Tf=T1×(W−w0)/(w1−w0)
Tf<Tm
ここでは露光時間と撮像白レベルが直接比例すると仮定する。図21はカメラ露光時間「0」での撮像画像白レベル値を(w0)として近似的に算出した例を示す。
【0100】
更に特徴抽出装置1では、選択操作により撮影露光時間を任意の設定値に固定した状態での撮像画像の取得と、これらの画像からの特徴抽出と分類演算も可能とした。これらの撮像画像値から、試料の各撮影条件下での照射光の吸収・反射率の確認と対比を行うことも可能である。
【0101】
また、撮像画像の白レベル値の変更調整については、CCDカメラ等の前に硝子板表面に遷移金属酸化物等(IrOx、Ta25・WO3等)の膜を形成した物性素子を置き、この物性素子に電圧を印加することにより膜の光透過率又は光透過量を調整するようにしてもよい。この調整にあたっては、前記同様に予め撮像波長毎に使用する印加電圧或いは、シャッター開時間の設定テーブル等を用意しておく。
【0102】
図23を参照しつつ前述の白黒基準補正を用いた濃度勾配の補正方法の事例を説明する。ここでは、演算装置3と撮像装置50が組合わさった「演算撮像手段」を想定する。図23の例では、16,384階調で約100万画素のカメラ撮影画像に白黒両基準部を設定する。白基準部の白レベル値Wは256階調のカメラ画像データにおいて白部wが階調値200を有することとなるように設定する。黒基準部の黒レベル値Bは同じく256階調のカメラ画像データにおいて黒部bが階調値30を有することとなるように設定する。
【0103】
上記設定の濃淡画像になるように全画素の濃淡値を同率(ここでは比率α=(W−B)/(w−b)と定義する)をもって拡縮補正演算を行い、順次カメラ画像データを得る。これにより、測定環境の変動等でオフセット(明暗レベル)値及び/又は白黒基準値が拡縮変動したカメラ撮影画像からも、測定すべき試料の特徴が所定の濃淡階調で表現されたカメラ画像データが得られる。
【0104】
また本実施形態では、前記拡縮補正演算の過程で過大な拡大演算が行われないようにする拡大演算防止策が講じられている。それを図22のフローチャートにより説明する。図23に示す16,384階調から256階調のスケールに変換するにあたり、同図にMAX〜MINで示す変換領域を決定する。16,384階調における白基準光量レベルWと黒基準光量レベルBとの差が極端に小さい場合には、256階調のwとbに変換すると極端に拡大されることになってしまうので、それを防ぐために許容範囲DWとDBを設定することとした。最終決定された16,384階調のMAX〜MIN間が256階調の255〜0のスケールに変換される。
【0105】
図22のフローでは、まず撮像を行い(ステップS301)、カメラ撮像画像の白黒両基準部の白レベル値Wと黒レベル値Bの差値(W−B)が別途設定した下限値X(154)以上か否かを調べ(ステップS302)、下限値X以上の場合はMAX値をW+α*(255−w)=W+55αとする(ステップs303)。他方、下限値X未満の場合に過大な拡大演算が行われないよう、MAX値をW+DW=W+50とする(ステップS304)。
【0106】
次に下限のMINを決定する。白レベル値Wと黒レベル値Bの差値(W−B)が別途設定の下限値Y(113)以上か否かを調べ(ステップS305)、下限値Y以上の場合はMIN値をW+α(0−w)=W−200αとする(ステップS306)。他方、下限値Y未満の場合には過大な拡大演算が行われないよう、MIN値をB−DB=B−20とする(ステップS307)。
【0107】
16,384階調におけるMAX〜MIN値の範囲が256階調の0〜255になるように、CCDカメラで撮像した試料の各画素値を変換する。
【0108】
このように、白レベル値Wと黒レベル値Bの差値が予め設定された値以下の場合には、この白レベル値Wと黒レベル値Bをそのまま拡縮演算するのでなく、白黒両レベル値に設定値を加減演算して第2の所定レベル値を求め、この第2の所定レベル値に対し拡縮補正演算を行うことにより、濃淡レベル差が微少な撮像画面、言い換えれば白黒両基準部のレベル値がほぼ同一の画像が、その差が過大に階調補正演算された濃淡画像に変換されることを防止している。
【0109】
上記の説明に用いた下限値(X,Y)や演算定数(DW,DB)の値は単なる例示であり、これに限定されるものではない。また、カメラ撮影画像の白黒両基準部の白黒両レベル値(W,B)を用いて演算を行うものとしたが、試料画像中の最大と最小の濃淡値を用いても同様の拡縮補正演算を行うことができる。
【0110】
また本実施形態では、図24に示すような赤外線カメラ等による微少濃淡画像の撮像を目的として、次の機能が備えられている。図24ではカメラ撮像素子(画素と同意)の番号を横軸65,535(=256×256)にとり、縦軸には受光量レベルを16,384階調をとり、各素子別の白黒両基準値を設定してこれら撮像素子別の濃淡階調補正演算も可能としている。この場合、図24の上の方の図のように光源照射光を遮光した状態でのカメラ撮像素子の各々の画像値を各々の黒基準値として、同図の下の方の図のように白基準となる基準紙に光源光を照射した状態でのカメラ撮像素子の各々の画像値を各々の白基準値として、それぞれ記憶させる。このように記憶された撮像素子別の白黒各基準値が別途に設定される所定の白黒各レベル値、例えば256階調の画像で白部wが階調値200となり、黒部bが階調値30となるように、試料のカメラ撮像画像値を撮像素子別に補正演算することにより、前述と同様に撮像素子の拡縮補正演算が実行でき、詳細且つ精密に特徴を把握できる。
【0111】
また、光源照射光及び/又は各投受光波長帯域に対応した複数の白黒基準値を設定することにより、それぞれの測定条件下での適正な補正が可能となる。
【0112】
このようにカメラ制御値の補正を行うことにより、画像処理ソフトウェアとデータ蓄積部を一元化し、システムリソースの節約と処理のスピードアップを図ることができる。また、必要に応じて明るさ、及び/又は濃度勾配を演算処理で更に別精度に追加補正する場合にも、元の撮像画像同士が近似しているため正確な演算処理が可能で、画像特徴の明確化が可能となる。これらの補正演算を行うためのデータは補正データ記憶部85に記憶させておく。
【0113】
なお、カメラ同士の画素数(ピクセルサイズ)が異なる場合は画像の圧縮補正その他で整合処理を可能とした(詳細な説明は省く)。
【0114】
図26に本発明の第2実施形態である特徴抽出システムを示す。このシステムでは、特徴抽出装置1Aから画像解析機能を分離し、画像解析は通信回線400を介して特徴抽出装置1Aに接続する演算装置500で行うこととした。
【0115】
特徴抽出装置1Aの本体部2の構成は第1実施形態の特徴抽出装置1の本体部2の構成と変わらない。すなわち光学セクション11は、図26には示さないが、試料ホルダ23、検査光発生装置30、及び撮像装置50を備えるものである。今度の場合も試料ホルダ23は紙幣、有価証券、切手等の紙葉類の試料を保持する。検査光発生装置30は複数種の光を検査光として前記試料に選択的に照射する照射手段として機能する。撮像装置50は該試料からの反射光(蛍光物質の励起光があれば、その励起光も含む)を異なる波長帯域で撮像して各々の波長帯域に対応する画像を取得する撮像手段として機能する。
【0116】
本体部2の制御セクション12の構成も第1実施形態の特徴抽出装置1のそれと変わらない。ただし演算装置3の構成は第1実施形態の場合と異なっている。すなわち第1実施形態の演算装置3から画像解析部87と代表データ格納部88が消え、代わりに通信部89が設けられている。通信部89は通信回線400に接続する。通信回線400は形態を問わない。専用回線でも、インターネットでもよい。
【0117】
通信回線400には演算装置500が接続する。演算装置500は特徴抽出装置1とは別個のものであり、例えばデータセンターのような施設に設置することができる。
【0118】
演算装置500のブロック構成は次のようになっている。501は中央処理部で、マイクロプロセッサと記憶装置を備え、演算装置500を制御するとともに、プログラムによってデータを処理し出力する。502は操作部で、これはキーボード等の入力手段、及び演算装置500の本体筐体に設けられた各種スイッチにより構成される。503は表示部で、CRTや液晶等のモニタと、演算装置500の本体筐体に設けられた発光ダイオード等の表示手段により構成される。504は通信部で、特徴抽出装置1Aの通信部89とデータのやりとりを行う。通信部89、504はモデム等の通信インターフェースにより構成することができる。
【0119】
505は画像解析部で、特徴抽出装置1Aから送信された画像データにつき所定のルールで演算を行って特徴を抽出する。506は特徴が明確であるとして選択された代表画像及び関連データを格納する代表データ格納部である。画像解析部505及び代表データ格納部506は中央処理部501のシステムリソースをそのまま利用して、あるいは中央処理部501のシステムリソースにハードウェア要素を付加して構成される。画像解析部505及び代表データ格納部506は第1実施形態の画像解析部87及び代表データ格納部88と同等の処理を行うが、より大量のデータを扱えるようになっている。
【0120】
上記のように、試料を扱う現場に設置する特徴抽出装置1Aと、遠隔地のデータセンターに設置され、通信回線400を介して特徴抽出装置1Aに接続した演算装置500とにより特徴抽出システムを構成した場合、複数の特徴抽出装置1Aで採取した画像データをデータセンターの演算装置500に集め、特徴の抽出と集約、及び基準試料との特徴照合を一括して処理することができる。
【0121】
これにより、広い波長帯域に及ぶ一元的な特徴データを、データセンターといった大規模なデータ処理環境に、試料別に集約して一括管理できる。同一の特徴抽出装置1Aに同一試料を再検査させ、その結果得られた検査データが前回のデータと一致するかどうか照合することにより、当該特徴抽出装置1Aの検査能力が環境の変化や経年変動で変化していないかどうか、再現性に問題はないか等を診断するのも容易である。
【0122】
また、初出の試料につき特性検査を行うに際しては、同種の試料に関する従前の検査例の検査光波長帯域や各種カメラの制御設定値、補正の際の各種演算定数等を読み出し、それらの値と同じ値に設定できる。従って、同種の試料と同一条件下での特徴抽出や照合判定処理を容易に行うことができる。
【0123】
更には、別途選択された複数枚の試料に関し、前述の一元的特徴データの一環をなすべく特徴抽出され且つ分類された、各試料に対応する複数の特徴データと、これらの特徴データのバラツキ、及び平均特性を検索し表示することができる。また、初出試料の特徴データが得られた場合、この特徴データと前記選択された複数枚の試料とのユークリッド距離に基づく同異判定演算が可能である。
【0124】
また、1台の演算装置500に複数台の特徴抽出装置1Aを接続した場合、個々の特徴抽出装置1Aのバラツキを考慮しつつも上述の一つの制御演算方式を用いて個別制御あるいは統合制御することが可能であるが、詳細な説明は略す。
【0125】
以上、本発明の各種実施形態につき説明を行ったが、この他、発明の主旨を逸脱しない範囲で様々な変更を加えて実施することができる。
【0126】
【発明の効果】
本発明により、次に掲げるような効果が奏される。
【0127】
試料の画像につき所定のルールで演算を行って特徴を抽出すべく試料の画像を撮像するにあたり、試料の画像を撮像する撮像装置は撮像可能波長帯域の異なる複数のカメラを波長重複領域中の所定波長で切り替え使用するものであり、その切り替え点における両カメラの撮像画像の近似度が所定レベル以上になるように、前記波長重複領域内で、その波長重複領域を有する両カメラで撮像した前記白基準点の白レベル値と前記黒基準点の黒レベル値の明るさ及び両基準点間の濃度勾配が所定レベル以上の近似度となるように前記撮像画像の濃淡値を同率に拡縮補正演算するから、複数のカメラによる広い波長帯域での検索が可能となる。また、一方のカメラから他方のカメラへ切り替わっても画像の違いは小さく、同一の画像処理手法でこれらの画像の光学的特徴を抽出できる。従ってカメラが複数であっても画像処理ソフトウェアとデータ蓄積部を一元化し、システムリソースの節約と処理のスピードアップを図ることができる。
【0128】
切り替え点における両カメラの撮像画像も併せて全ての撮像画像の明るさ及び/又は濃淡ゲインの近似度が所定レベル以上になるようにカメラ及び/又は入力画像の補正を行うこととすることにより、感度帯域の異なる複数のカメラによって広い波長帯域をカバーしつつ、画像データを一元化し、データ処理を容易に行うことができる。
【0129】
試料を試料ホルダに保持し、この試料に検査光発生装置の発生する検査光を照射し、この試料面を、前記撮像装置が所定の異なる波長帯域で撮像し、これら各波長帯域に対応する画像を取得することとしたから、試料の光学的な特徴を抽出するのに必要な各波長帯域別の画像を確実に取得することができる。
【0130】
段階的に波長が異なる複数種の光を検査光として前記試料に照射することとしたから、これら複数種の照射光の各々に対応する試料面の光学的な特性を精密に検索分析し、特徴を正確に把握することが可能となる。
【0131】
撮像画像内に明るさレベルを示す白基準点を設け、順次得られる撮像画像の当該基準点の濃淡レベル値が、予め設定された白レベル値に所定の許容誤差値内で一致する明るさに制御される撮像手段を備えるものとしたから、カメラの感度のバラツキを補償し、カメラの感度のバラツキによる弊害をなくすことができる。また、複数のカメラによる幅広い波長帯域での光学特性の検索が可能になる。加えて、一方のカメラから他方のカメラに切り替わっても画像の違いは小さく、同一の画像処理手法で光学的特徴が抽出できる。従ってカメラが複数であっても画像処理ソフトウェアとデータ蓄積部を一元化し、システムリソースの節約と処理のスピードアップを図ることができる。
【0132】
白黒両基準点の白レベル値と黒レベル値の各々が所定の濃淡階調レベル値となるように当該撮像画像の濃淡値を同率に拡縮補正演算しつつ順次カメラ画像を得るようにしたから、各撮像画像のダイナミックレンジが揃うこととなり、撮像手段の感度のバラツキ(明るさと濃度勾配において)をなくすことができる。
【0133】
カメラの露光時間の補正等、明るさレベルの補正では補正し得ぬ精密な一致補正が必要な場合も、撮像画像内に明るさレベルを示す白基準点と暗さレベルを示す黒基準点とを設けて撮像画像の均一化補正の指標とするようにし、これら白黒両基準点の白黒両レベル値の各々が所定の濃淡階調レベル値になるように撮像画像の濃淡値を同率に拡縮補正演算することにより、各々の画像同士がほぼ同等レベルになるよう近似補正することができる。このため、演算処理における特徴の明確化補正をより容易且つ正確に遂行できる。
【0134】
画像特徴をより明確にするために、撮像手段で得られた白黒両基準点の白黒両レベルが予め設定された白黒各レベル(濃淡階調値)となるように当該画像の濃淡値を拡縮補正演算しつつカメラ画像データとして得ることとすることにより、撮像手段、光源光量、及び/又はその他の測定環境の変動に対しても、撮像信号レベルの明るさ及び/又は濃淡ゲインが一定レベルに修正統一され、これら撮像画像データの特徴と正確に把握することが可能となる。
【0135】
また、白黒両基準点をそれぞれ、互いに近接した複数のピクセルで構成し、これらピクセルの平均値を各基準値として、宇宙線ノイズその他の点ノイズにより不適正となった基準値による誤演算を防止している。さらに、補正された画像の白黒両基準点濃淡値はカメラ画像データの最低値を下回ったり最高値を上回ったりすることのないよう、それらより所定幅をもって内側に留まるよう設定されている。これにより、白黒両基準点より多少オーバー気味又はアンダー気味となる画像特徴もオーバーカレント又はアンダーカレントとなることなく、正確に補正表示することが可能となる。
【0136】
撮像エリア内に別途に白基準マーカと黒基準マーカを配設してこれらの座標を入力することによっても、正確な一元的目標レベルの補正を行うことができる。
【0137】
カメラの撮像画像内に設ける白黒基準点を、試料面の撮像画像中の任意の位置に設定することもでき、また試料面外の所定位置に設けておいた白黒基準マーカに設定することもできるようにすることにより、試料面の濃淡の特徴を明確化するように補正することができ、また、白黒基準マーカを基準として撮像画像間の特徴を明確化することも可能になる。
【0138】
前記試料面の特徴撮影に際して所定の撮影条件で先行撮影を行ってこの撮像画像を表示する先行撮像画像表示手段と、該先行撮像画像表示手段に表示された画像に白基準点の座標と黒基準点の座標を設定する基準点座標の設定入力手段を備え、前記設定入力手段により座標を設定された白黒両基準点の明るさ及び両基準点間の濃度勾配をこの後に得られる撮像画像濃淡値の同率拡縮補正演算の指標とすることとしたから、先行撮影画像を確認しつつその画像内の適切な座標位置に白基準点と黒基準点を設定でき、この後に得られる撮像画像の濃淡値の同率拡縮補正演算の指標として適切なレベル値を有する白黒両基準点を設定することができる。
【0139】
前記演算撮像手段に関し、試料面から得られる撮像画像につき上記の白黒両基準点の白黒両レベル値の差を求めるとともにこの差値が予め設定された値以下の場合、白黒両レベル値に所定の設定値を加減演算して得た第2の所定レベル値に対し拡縮補正演算を行うこととして、濃淡レベル値が微小な撮像画像の過大な階調演算補正を防止するようにしたから、濃淡レベル差の微小な画像、すなわち殆ど全面白又は黒といった画像が得られた場合、微小な濃淡特性が異常に拡大補正されることをなくし、異常に補正された、紛らわしい補正画像の混入による無意味な特徴抽出及び/又はこれらの特徴の同類分類演算がなされることを防止できる。
【0140】
前記のような殆ど全面白又は黒といった画像の場合、白黒の最大及び/又は最小値が白黒基準点の信号レベルに遠い値に設定され、他の画像と異なる特異画像として補正され且つ表示されるようにすることにより、無意味な特徴抽出及び/又はこれら特徴の同類分類演算がなされることを確実に防止できる。
【0141】
濃淡レベルの差の微少な画像を撮像するにあたり、カメラ受光面の撮像素子に個別に白黒基準値を設定して撮像素子毎に濃淡階調補正を選択できるようにし、光源照射光をなくした時のカメラ画像値を各画素別の黒基準値とし、他方、別途設けた白基準紙に光源光を照射した時のカメラ画像値を各画素別の白基準値とし、これらの白黒基準値の画像値が所定の濃淡階調値となるように拡縮補正演算することにより、微少な濃淡レベル画像の特徴を正確に把握できる。また、測定すべき光源光及び/又は投受光の波長帯に対応した複数の白黒基準値を設定し、これらを測定条件別に選択使用して補正することも可能である。
【0142】
カメラの撮像した画像の各々を、各画像を撮像したカメラの種類、その露光時間、白黒両基準点の各座標値と基準値、光源ランプの種類、照射波長及び撮像波長、補正された白黒両基準値、及び取得画像の画素サイズ(分解能)等の測定条件と併せて記憶させることにより、異なった撮像条件で得た撮像画像、例えば異なった白黒基準値で補正した画像での特徴抽出やこれら画像の対比、補正前の画像の再現確認等が可能となる。
【0143】
試料を保持する試料ホルダと、紫外域から近赤外域にわたる波長域の光であって、段階的に波長が異なる複数種の光を検査光として前記試料に順次照射する照射手段と、前記試料の試料面を中心波長が異なる複数の撮像可能波長帯域で撮像して各々の波長帯域に対応する画像を取得する撮像装置とを有し、前記撮像画像から前記試料の光学的な特徴を抽出し、複数の画像の代表画像を得る特徴抽出システムであって、前記試料ホルダ、前記照射手段と前記撮像装置を備え、前記撮像装置は互いに撮像可能波長帯域が異なり、且つそれぞれ固有の光感受特性を有するとともに、1台のカメラの撮像可能波長帯域の一部が他の1台のカメラの撮像可能波長帯域の一部と重複して波長重複領域となった複数のカメラからなり、前記試料ホルダの撮像画像内に明るさレベルを示す白基準点と暗さレベルを示す黒基準点を設けている本体部と、前記波長重複領域内で、その波長重複領域を有する両カメラで撮像した前記白基準点の白レベル値と前記黒基準点の黒レベル値の明るさ及び両基準点間の濃度勾配が所定レベル以上の近似度となるように前記撮像画像の濃淡値を同率に拡縮補正演算しつつ順次カメラ画像データを得る演算装置とを通信回線で接続して、前記本体部で得られた撮像画像を前記演算装置に集めて特徴の抽出を行うようにしたから、演算装置を本体部から離れた任意の箇所に設置することが可能になる。
【0144】
演算装置を本体部と物理的なつながりなく設置できるので、演算部をデータセンターと位置づけて大きなデータ処理能力を与え、それによりハードウェアが大型化したとしても、それを受け入れられる環境を与えることが可能である。これにより、試料より膨大な特徴データが得られたとしても、そのデータを試料別に集約して一括管理できる。
【0145】
同一試料を再検査し、以前の検査データとの一致度を照合し確認することにより、本体部の検査能力を診断することができる。また、同類に属する多数枚の試料の検査データの一致度を照合確認することにより、これらの試料間の特性のバラツキを把握できる。また、多数枚の試料の平均特性を得ることができるので、新たな試料の特徴抽出と同異判定が必要となった場合、特徴の照合判定を一層正確に行うことができる。
【図面の簡単な説明】
【図1】 本発明の第1実施形態に係る特徴抽出装置の構成図にして、光学機構部分を断面図としたもの
【図2】 特徴抽出装置本体部の水平断面図
【図3】 図2と同様の水平断面図にして、異なる状態を示すもの
【図4】 光源部の水平断面図
【図5】 図4と同様の水平断面図にして、異なる状態を示すもの
【図6】 バンドパスフィルタの正面図
【図7】 特徴抽出装置のブロック構成図
【図8】 波長をずらしつつ撮像したときの画像の変遷を示す図
【図9】 特徴抽出方法を説明する図にして、画像の差分のイメージを示すもの
【図10】 画像の差分値をデジタル値として表現するAD値の表
【図11】 差分値の絶対値である指数の表
【図12】 指数のグラフ
【図13】 差分値に基づき代表画像を選定する方法の第1の説明図
【図14】 差分値に基づき代表画像を選定する方法の第2の説明図
【図15】 画像分類作業のフローチャート
【図16】 複数のカメラの撮像画像を補正を加えないまま使用する状況を観念的に示す図
【図17】 複数のカメラの撮像画像を補正を加えて使用する状況を観念的に示す図
【図18】 カメラ補正用の白黒基準点を試料画像中に設定する状況を示す図
【図19】 カメラ補正用の白黒基準マーカの図
【図20】 露光時間設定のフローチャート
【図21】 露光時間の自動設定を説明するグラフ
【図22】 白黒基準拡縮補正のフローチャート
【図23】 白黒基準拡縮補正を説明する図
【図24】 撮像素子別の濃淡階調補正をした例を示す図
【図25】 撮像ログの例を示す図
【図26】 本発明の第2実施形態に係る特徴抽出システムの構成図
【符号の説明】
1 特徴抽出装置
2 本体部
3 演算装置
10 ハウジング
11 光学セクション
12 制御セクション
23 試料ホルダ
30 検査光発生装置
31 光源部
38 分光器
50 撮像装置
51 CCDカメラ
52 赤外線カメラ
57 分光器
58 バンドパスフィルタ
87 画像解析部
91 白基準点
92 黒基準点
93 白基準マーカ
94 黒基準マーカ
1A 特徴抽出装置
400 通信回線
500 演算装置
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for optically analyzing and extracting and classifying characteristics of a sample to be inspected, in particular, a paper surface of a paper sheet on which characters, design patterns, and the like are printed.
[0002]
[Prior art]
For banknotes, securities, stamps, and other items that use paper as a medium to demonstrate the value of exchange, authenticity identification is always a major problem. In distinguishing between authenticity and the difference, it is necessary to properly understand what the characteristics of the paper sheet are.
[0003]
In recent years, color copiers, color printers, scanners, etc. have been improved in performance and reduced in price, and it has become easy to induce counterfeiting of paper sheets. For this reason, markings that are not included in commercially available color copying toners and printer inks, such as fluorescent materials and other functional materials, are performed under normal lighting conditions and invisible to the naked eye. . These markings naturally constitute the characteristics of paper sheets.
[0004]
In the paper sheet authenticity identification device described in Japanese Patent Laid-Open No. 2001-52232, a specific part of the paper to be identified is irradiated with ultraviolet light, and transmitted light or reflected light from the ultraviolet light irradiation part is applied to a wavelength selection filter to specify a specific part. Only the light in the wavelength band is received by the photo sensor array, the authenticity of the paper quality of the paper to be identified is identified based on the light output signal of the photo sensor array, and the authenticity of the phosphor that generates fluorescence by ultraviolet irradiation is identified. When both the identification results are true, the identified paper is true.
[0005]
The paper sheet authenticity discrimination device discriminates whether or not the paper used for the paper sheet is genuine by the light output signal of the photosensor. However, since this apparatus is for confirming the already recognized optical characteristics and not for checking the printed figure on the paper, it is difficult to say that it is a perfect method for authenticating paper sheets.
[0006]
In the document inspection apparatus described in Japanese Patent Laid-Open No. 4-288977, at least two light portions having different wavelengths are directed on a common area of a document, and reflected light or transmitted light is detected by a linear detector.
[0007]
The document inspection apparatus can use a printed figure as an inspection standard. Further, reflected light or transmitted light is detected by a plurality of detectors, and signals coming from the detectors are evaluated alone or in an appropriate combination, and multifaceted inspection is possible. However, it is difficult to say that sufficient technical pursuit has been made as to how data obtained by a plurality of detectors are related and processed to improve the function of the inspection apparatus.
[0008]
An apparatus for measuring the optical characteristics of a sample in a wide wavelength band, such as a spectrophotometer, is well known, but only a spot-like measurement area is set, and it is difficult to measure characteristics over the entire paper surface. Further, it merely shows the measured value under the measurement conditions at the time of measurement. Although there is an apparatus that picks up an optical image of a sample paper with a plurality of wavelengths using a CCD camera or the like, the search wavelength band is narrow (400 to 1000 nm). Moreover, only a sample surface image is obtained, and feature extraction from an image corresponding to each search wavelength is not performed.
[0009]
Therefore, for the search and the feature extraction of the optical characteristics of the sample paper over a wide wavelength band, an imaging device composed of a plurality of types of cameras with different imaging wavelength bands, and a large number of captured images obtained for each wavelength from these types of cameras. It is necessary to have a computing device that extracts features for the target and classifies these features. For example, if 7200 images of about 1 million pixels are picked up from a wide wavelength band and features of all the images are extracted, enormous labor and time are required. Furthermore, when these captured images have different camera characteristics such as brightness and density gradient, feature extraction is difficult. In addition, even if the optical properties of a reference sample obtained from a large number of samples and a new sample are judged to be different, it is difficult to carry out the comparative judgment work under such circumstances, and sufficiently satisfactory results are obtained. I couldn't.
[0010]
[Problems to be solved by the invention]
The present invention can extract optical characteristics of a sample in a wide wavelength band not limited to the visible light region, and can perform centralized processing of the obtained data, and can efficiently use system resources of a computing device. An object is to provide an apparatus and a feature extraction system.
[0011]
[Means for Solving the Problems]
The feature extraction apparatus of the present inventionA sample holder for holding a sample, irradiation means for sequentially irradiating the sample with a plurality of types of light having wavelengths in a range from the ultraviolet region to the near-infrared region and having different wavelengths in stages, and the sample An imaging device that captures an image of the sample surface in a plurality of imageable wavelength bands having different center wavelengths and acquires an image corresponding to each wavelength band, and extracts the optical characteristics of the sample from the captured image; A feature extraction device that obtains representative images of a plurality of images, wherein the imaging devices have different wavelength bands that can be imaged from each other, each has a unique photosensitivity characteristic, and a part of the imageable wavelength band of a single camera Consists of a plurality of cameras that overlap with a part of the imageable wavelength band of the other one camera to form a wavelength overlap region, and a white reference point and a darkness indicating a brightness level in the captured image of the sample holder Black indicating level Provide a quasi-point, and within the wavelength overlap region, brightness of the white level value of the white reference point and the black level value of the black reference point captured by both cameras having the wavelength overlap region, and between the two reference points Computational imaging means for sequentially obtaining camera image data while performing scaling correction calculation of the grayscale value of the captured image at the same rate so that the density gradient has a degree of approximation equal to or higher than a predetermined level is provided..
[0012]
According to this configuration, it is possible to search for optical characteristics in a wide wavelength band by a plurality of cameras. Further, even when switching from one camera to the other, the difference in images is small, and the optical characteristics of these images can be extracted by the same image processing method. Therefore, even if there are a plurality of cameras, the image processing software and the data storage unit can be unified, and system resources can be saved and the processing speed can be increased.
[0013]
A sample is held in a sample holder, the sample is irradiated with inspection light generated by the inspection light generator, and the sample surface is imaged in a predetermined different wavelength band by the imaging device, and images corresponding to these wavelength bands To getTherefore, it is possible to reliably acquire images for each wavelength band necessary for extracting the optical characteristics of the sample..
[0014]
  The white reference point indicating the brightness level and the black reference point indicating the darkness level are provided in the captured image of the sample holder, and the white image captured by both cameras having the wavelength overlap region in the wavelength overlap region The gray level value of the captured image is subjected to an enlargement / reduction correction operation at the same rate so that the brightness of the white level value of the reference point and the black level value of the black reference point and the density gradient between the two reference points are close to a predetermined level or higher. However, since the camera image data is obtained sequentially, the dynamic range of each captured image is uniform, and variations in sensitivity of the imaging means (in terms of brightness and density gradient) can be eliminated..
[0015]
In the present invention,In the feature extraction apparatus having the above-described configuration, a pre-captured image display unit that performs pre-photographing under a predetermined photographing condition and displays the captured image at the time of characteristic photographing of the sample surface, and an image displayed on the pre-captured image display unit Reference point coordinate setting input means for setting the coordinates of the white reference point and the black reference point is provided, and the brightness of the black and white reference point and the density gradient between the two reference points, the coordinates of which are set by the setting input means. It is characterized by being used as an index for the same-scale enlargement / reduction correction operation of the captured image gray value obtained thereafter..
[0016]
  According to this configuration,Since the white reference point and the black reference point can be set at appropriate coordinate positions in the image while confirming the preceding photographed image, appropriate brightness and Can set both black and white reference points with density gradient between both reference points.
[0017]
In the present invention,In the feature extraction apparatus having the above-described configuration, regarding the arithmetic imaging unit, a difference between both black and white level values of both black and white reference points is obtained for a captured image obtained from the sample surface, and when the difference is equal to or less than a preset value, An enlargement / reduction correction operation is performed on a second predetermined level value obtained by adding / subtracting a predetermined set value to / from both level values so as to prevent excessive gradation calculation correction of a captured image with a small gray level value. It is characterized by.
[0018]
  According to this configuration,When an image with a very small gray level difference, that is, an image such as almost all white or black, is obtained, the minute density characteristics are not abnormally enlarged and corrected, and the meaningless feature due to the mixing of the abnormally corrected image Preventing extraction and / or similar classification operations of these features.
[0019]
  The feature extraction system of the present invention sequentially irradiates the sample with a sample holder for holding the sample and a plurality of types of light having wavelength ranges from the ultraviolet region to the near-infrared region and having different wavelengths step by step. An irradiation unit; and an imaging device that captures an image of the sample surface of the sample in a plurality of imageable wavelength bands having different center wavelengths and acquires an image corresponding to each wavelength band; A feature extraction system for extracting representative features and obtaining representative images of a plurality of images,
The sample holder, the irradiating means, and the imaging device are provided, and the imaging devices have different wavelength bands that can be imaged from each other, each has a unique light-sensitive characteristic, and a part of the imageable wavelength band of one camera is A white reference point indicating a brightness level and a darkness level in a picked-up image of the sample holder, comprising a plurality of cameras that overlap with a part of the imageable wavelength band of another camera and become a wavelength overlap region A brightness level of the white level value of the white reference point and the black level value of the black reference point captured by both cameras having the wavelength overlap region within the wavelength overlap region. An arithmetic device that sequentially obtains camera image data while performing a scaling correction calculation on the grayscale value of the captured image at the same rate so that the density gradient between the reference points and the density gradient between the two reference points is equal to or higher than a predetermined level, and the main body unit and the calculation Equipment It continued, and is characterized by having a communication line to collect the captured image obtained by the main unit to the arithmetic unit.
[0020]
  According to this configuration,It becomes possible to install the arithmetic unit at an arbitrary place away from the main unit..
[0027]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. First, the structure will be described with reference to FIGS.
[0028]
The feature extraction device 1 includes a main body 2 and an arithmetic device 3. The main body 2 has a housing 10, and its internal components are divided into an optical section 11 and a control section 12 as shown in FIG. 1 to 6 show the components included exclusively in the optical section 11.
[0029]
The housing 10 of the main body 2 is supported by a plurality of casters 21 so as to be movable on the floor surface. A part of the housing 10 has a door 22, and the sample holder 23 is taken in and out by opening the door 22. If the door 22 is closed, the inside of the housing 10 is in a dark room state. The sample holder 23 holds a sample of paper sheets such as banknotes, securities, and stamps so that the surface to be inspected is vertical. The surface to be inspected is irradiated with inspection light, and reflected light (including excitation light of the fluorescent material, if any) is imaged. Subsequently, the inspection light generator 30 functions as an irradiation unit that irradiates the sample with a plurality of types of light having different wavelengths step by step, and the sample surface is imaged in different wavelength bands to correspond to the respective wavelength bands. A configuration of the imaging device 50 that functions as an imaging unit that acquires an image will be described.
[0030]
The light source unit 31 of the inspection light generator 30 emits light in the wavelength range of 250 to 2,000 nm. Since such a wide band of light cannot be generated by a single lamp, two types of lamps, a xenon lamp 32 and a halogen lamp 33 are used (see FIGS. 4 and 5). The xenon lamp 32 is used for obtaining inspection light of 250 to 380 nm, and the halogen lamp 33 is used for obtaining inspection light of 381 to 2,000 nm.
[0031]
The xenon lamp 32 and the halogen lamp 33 are disposed facing each other in the lamp house 34. Since it takes time for the lamp to emit light of the specified spectrum after the power is turned on, both lamps are lit continuously while the device is in operation, instead of turning the lamp on and off each time the lamp is switched. In addition, the necessary side light is reflected by the movable mirror each time and is taken out. Reference numeral 35 denotes the movable mirror, and the reflection surface is directed to the xenon lamp 32 at a 45 ° angle, and the reflection surface is directed to the halogen lamp 33 at a 45 ° angle in FIG. It is switched by a motor or solenoid (not shown). The light hitting the movable mirror 35 turns at a right angle and enters the lens house 37 through the exit window 36 on one side of the lamp house 34.
[0032]
The light whose divergence angle is adjusted by the lens group in the lens house 37 enters the spectroscope 38. The spectroscope 38 is an aberration-correction type zero dispersion double monochromator. The drive wavelength range is set to 250 to 2,000 nm, the half-value width is set to 30 nm or 60 nm, and the resolution is set to 15 to 30 nm. It can also be set to “white light including the entire wavelength range”. Light of a predetermined wavelength band emitted from the spectroscope 38 becomes inspection light.
[0033]
A lens house 39 is connected to the exit window of the spectroscope 38. A lens (not shown) disposed in the lens house 39 is for adjusting the divergence angle of the inspection light. Similarly, when irradiating an area of 180 mm × 180 mm on the sample holder 23, 50 mm × 50 mm. The divergence angle is switched between when irradiating the area.
[0034]
The inspection light exiting the lens house 39 travels through the space while being repeatedly reflected by the fixed mirrors 40 and 41, and irradiates the sample held by the sample holder 23. Light reflected and absorbed by the surface to be inspected of the sample enters the imaging device 50.
[0035]
As described above, the inspection light band ranges from 250 to 2,000 nm. However, there is no imaging means having a wide sensing area, so the imaging apparatus 50 is configured with two types of cameras. One of them is a CCD camera 51, which is arranged in front of the sample holder 23 as seen in FIGS. The other is an infrared camera 52, which is arranged in parallel with the CCD camera 51 at a position shifted in the horizontal direction from the front in front of the sample holder 23.
[0036]
A CCD camera 51 composed of a silicon imaging device or the like is used for imaging reflected light having a wavelength of 250 to 1,000 nm. An infrared camera 52 having an imaging element made of platinum indium, indium antimony, or the like is used for imaging reflected light of 1,000 to 2,000 nm. These cameras have about 65,000 (≈256 × 256) pixels to about 1 million (≈1024 × 1024) pixels or more, and the sample surface to be analyzed has a density of more than 256 gradations. Capture and input as an image.
[0037]
The camera is switched by the movable mirror 53 shown in FIGS. The movable mirror 53 is moved in the horizontal direction by a driving mechanism (not shown). When the movable mirror 53 reaches the position shown in FIG. 2, the reflected light from the sample holder 23 reaches the CCD camera 51 straight. When the movable mirror 53 reaches the position shown in FIG. 3, the reflected light is bent at a right angle by the movable mirror 53 and is bent again at a right angle by the fixed mirror 54 and reaches the infrared camera 52.
[0038]
Reference numerals 55a, 55b, 56a and 56b denote converging lenses which appear and disappear in respective optical paths between the sample holder 23 and the CCD camera 51, and the fixed mirror 54 and the infrared camera 52 by a driving mechanism (not shown). The converging lenses 55a and 56a are used when converging the reflected light when the irradiation area is 180 mm × 180 mm, and the converging lenses 55b and 56b are used when converging the reflected light when the irradiation area is 50 mm × 50 mm. Use.
[0039]
In FIGS. 1, 2, and 3, the converging lenses 55a and 55b are shown in the optical path so that the combination of the converging lenses 55a and 55b or the converging lenses 56a and 56b exist at the same time. Actually, only one of the combinations advances into the optical path, and the other one is retracted out of the optical path.
[0040]
Since the light receiving area and / or image forming position on the CCD or infrared imaging device slightly changes between when the converging lenses 55a and 56a are used and when the converging lenses 55b and 56b are used, these cameras 51 are driven by a driving mechanism (not shown). , 52 are moved along the optical axis to compensate for the change. A zoom lens mechanism may be used instead of moving the camera.
[0041]
In order to narrow down the imaged light to a predetermined wavelength range, the CCD camera 51 is combined with a spectroscope (ultraviolet visible image spectroscope) 57, and the infrared camera 52 is combined with a bandpass filter (near infrared bandpass filter) 58. It is done. The spectroscope 57 has a half width of 30 nm and a resolution of 15 nm. The band pass filter 58 has a half width of 30 to 60 nm and a resolution of 30 nm. The spectroscope 57 and the band-pass filter 58 also have a function of selecting light in the entire wavelength range in the same manner as the spectroscope 38 on the light source side.
[0042]
FIG. 6 shows a structural example of the band pass filter 58. This is a combination of three turrets 59a, 59b and 59c, each of which is index rotated by a motor (not shown). Each turret 59a, 59b, 59c holds 13 filter holders 60 radially, and each one filter holder 60 is made to coincide with the optical path. In FIG. 6, a hatched circle (circle represents a filter) indicates the position of the optical path.
[0043]
Of the 13 filter holders 60 held by the turrets 59a, 59b, and 59c, the filter 61 having a slightly different pass wavelength band is attached to 12 of the filter holders 60, and the remaining one is transparent for the entire wavelength range. . If the filter holder 60 through which the turrets 59b and 59c pass is selected, the 12 types of filters of the turret 59a can be used alone. If the transparent filter holder 60 is selected by the turrets 59a and 59c, the 12 types of filters of the turret 59b can be used alone in the same manner. If the transparent filter holder 60 is selected with the turrets 59a and 59b, the 12 types of filters of the turret 59c can be used alone as well. Further, if the filter holder 60 that is transparent in all of the turrets 59a, 59b, and 59c is selected, light in the entire wavelength band is selected.
[0044]
Next, a block configuration of the feature extraction apparatus 1 will be described with reference to FIG.
[0045]
The control section 12 of the main body 10 includes a lamp controller 70, a mirror controller 71, a lens controller 72, an irradiation side spectrometer controller 73, an imaging side spectrometer controller 74, and a camera controller 75. The lamp controller 70 controls turning on / off of the xenon lamp 32 and the halogen lamp 33. The mirror control unit 71 controls the operation of the movable mirrors 35 and 53. The lens control unit 72 controls the operation of the lenses in the lens house 39 and the converging lenses 55a, 55b, 56a, and 56b. The irradiation side spectroscope control unit 73 controls the operation of the spectroscope 38. The imaging side spectroscope control unit 74 controls the operation of the spectroscope 57 and the band pass filter 58. The camera control unit 75 controls the exposure time and other shooting condition settings and imaging of the CCD camera 51 and the infrared camera 52.
[0046]
The block configuration of the arithmetic device 3 is as follows. A central processing unit 80 includes a microprocessor and a storage device, controls the arithmetic device 3, and processes and outputs data by a program. Reference numeral 81 denotes an operation unit, which includes input means such as a keyboard and various switches provided on the main body of the arithmetic device 3. A display unit 82 includes a monitor such as a CRT or a liquid crystal and a display unit such as a light emitting diode provided in the main body of the arithmetic unit 3. The arithmetic device 3 and the main body 2 are connected by a cable (not shown) and exchange signals with each other.
[0047]
Reference numerals 83 to 88 denote data processing block groups configured by using system resources of the central processing unit 80 as they are or adding hardware elements to the system resources of the central processing unit 80. Reference numeral 83 denotes an A / D converter, which converts analog data of an image transmitted from the imaging device 50 into digital data. 84 appropriately controls the CCD camera 51 and the infrared camera 52, unifies the image data obtained by the CCD camera 51 and the image data obtained by the infrared camera 52, and cuts out as an input image of a necessary size separately selected and set. At the same time, the correction calculation unit compresses the image size. Reference numeral 85 denotes a correction data storage unit that stores parameters such as a correction coefficient for calculation by the correction calculation unit 84. Reference numeral 86 denotes an image buffer unit that holds an image cut out to the required size, a compressed image, and a temporary intermediate image that is processed for image feature extraction. Reference numeral 87 denotes an image analysis unit for extracting features, and reference numeral 88 denotes a representative data storage unit that stores a representative image and related data selected as having clear features.
[0048]
Next, the operation of the feature extraction apparatus 1 will be described. First, the door 22 of the main body 2 is opened, the sample holder 23 is taken out, and a paper sheet sample is attached. The sample holder 23 to which the sample is attached is set at a predetermined position in the housing 10 and the door 22 is closed. Then, the sample is irradiated with the inspection light, and the light reflected from the sample is imaged by the imaging device 50.
[0049]
The inspection light generator 30 selects light in a wide wavelength range from 250 to 2,000 nm ranging from the ultraviolet region to the near infrared region as all wavelength light (white light) or inspection light in a predetermined band while shifting the center wavelength at a predetermined pitch. Occur sequentially. The sample surface looks according to the inspection light. For example, when a fluorescent material is contained in the material constituting the paper or in the printing ink, the fluorescent material emits excitation light in response to the inspection light having a specific wavelength. The light image obtained by combining the excitation light and the reflected light is passed through the spectroscope 57 or the band pass filter 58, and is picked up by the CCD camera 51 or the infrared camera 52 as a grayscale image of specific wavelength light.
[0050]
FIG. 8 illustrates the transition of the image of the paper sheet when the spectroscope and the bandpass filter on the camera side are passed through while shifting the wavelength range of the inspection light to be irradiated, that is, the image is captured as light in the entire wavelength range. In (a), the original pattern of the paper sheet is not seen at all, and the pattern due to the excitation of the fluorescent material is only visible in the lower right. As the wavelength of the inspection light becomes longer as (b) → (c) → (d) → (e) → (f), the original visual visible light pattern of the paper sheet gradually appears and the excitation light pattern disappears. In (g), the original pattern of the paper sheet has the clearest and brightest image. Thereafter, as the wavelength of the inspection light increases from (h) → (i) → (j) → (k), the image loses clarity and brightness. In (l), only a pattern sensitive only to the near infrared is visible.
[0051]
FIG. 8 is a drawing example simplified for illustrative purposes only, and an actual image does not follow the same transition. An image group obtained by imaging an actual paper sheet over a wavelength range of 250 nm to 2,000 nm shows much more complicated changes.
[0052]
As described above, the inspection light generation device 30 irradiates a plurality of types of light having different wavelengths in stages and having a narrow band sequentially as inspection light, or full wavelength light (white light) as inspection light. The central wavelength of the inspection light is set to 86 steps (of which one is the full wavelength light) between 250 and 2,000 nm, and the spectroscope 57 and the band pass filter 58 are combined on the imaging side to obtain 86 steps (of which Assuming that the pass wavelength band of all wavelengths is set in one stage, 86 × 86 = 7,396 images are picked up.
[0053]
Now, it is possible to acquire a large number of images with different imaging wavelength bands by the feature extraction device 1, but for example, all of fine image data having about 1 million pixels and each pixel having tens of thousands of grayscales. When dealing with the characteristics of the paper sheet, a huge amount of memory is required, and a lot of data is stored as a characteristic in this way when differentiating the authenticity or difference of the same kind of paper sheet later. Then, it takes too much time for verification. First, even if the samples are of the same type, the printing is accompanied by misalignment and fading, and the printing state is not necessarily the same. Also, if used, it may be possible that color fading or dirt components such as sebum will adhere, resulting in differences in the captured images, and even the same type of sample may be excluded as a counterfeit ticket. Absent. Therefore, the feature to be extracted is compressed to a certain extent by compressing the image size and / or the gray scale while maintaining the fine and fine optical characteristics, except when performing a very fine high-precision feature search. It is better to make it tolerable.
[0054]
Therefore, the arithmetic device 3 performs a similar classification operation based on feature extraction according to a predetermined rule for a large number of cut-out images and / or compressed images cut out to a required size and input to the image buffer unit 86, and the paper sheet The representative data storage unit 88 stores an image that clearly shows the above-described features as a representative image. Hereinafter, a calculation method for automatically extracting features will be described.
[0055]
Differences between images are used for feature extraction and similar classification. FIG. 9 shows the concept of analysis by difference. That is, pay attention to the difference in data between one image and another image. If the first image has “ABCDEF” data and the second image has only “ABDEF” data, the difference between them is “C”. The analysis is performed using the difference “C” as a material.
[0056]
As difference data, a difference value (difference value) for “brightness” for each pixel corresponding to each image and the frequency of each difference value (data number for each difference value) are obtained. In the present embodiment, “brightness” is “bright” means that the amount of reflected light is large in the captured wavelength band. That is, the characteristic pattern that should appear in the imaging wavelength band appears more clearly. “Bright” can be rephrased as “dark”. “Frequency” indicates the number of pixels having the difference value.
[0057]
Subsequent calculations are performed using AD values of 256 tones obtained by converting the brightness of actual pixels into digital values. Therefore, the difference value of “brightness” between the two images is replaced with one of −255 to +255 AD values as shown in FIG.
[0058]
In the calculation, the sum of the products is obtained after obtaining the product of the AD value of each difference value and the frequency. At this time, when the product is obtained with the sign of the AD value being added (as shown in FIG. 10). There is a case where the product relating to the “index” which is the absolute value of the AD value is obtained (the example shown in FIG. 11 corresponds to this). Here, the sum of products in the former case is referred to as “product sum”, and the sum of products in the latter case is referred to as “index sum”.
[0059]
When the calculation is performed using an exponent, the difference difference is further emphasized in order to facilitate the calculation. FIG. 11 shows an example of the method. In FIG. 11, the absolute value of the difference value is obtained, and a value obtained by further subtracting a certain value therefrom is used as a “difference value index”. If a negative value appears, the difference value index is set to “zero”.
[0060]
In FIG. 11, “constant value” is separately set to “30”, and as a result, the interval from −30 to +30 in the difference value is all “zero” in the difference value index as a noise component. That is, all the pixels (pixels) having a difference value of −30 to +30 are treated as the same pixel within the allowable error range. Therefore, the influence of noise between approximate images is eliminated, and only pixels having a true difference with a difference value of ± 30 or more are recognized as separate images. FIG. 12 shows a graph of the relationship between the difference value and the difference value index.
[0061]
A method of extracting features based on the difference values and selecting an image that clearly represents the features as a representative image will be described with reference to FIG. FIG. 13 shows eight images. These images are picked up for each wavelength band with different center wavelengths at a predetermined pitch, and are arranged in order of wavelength. Image Pi-4Is dark and P from therei-3, Pi-2And PiAs it approaches, the brightness gradually increases and image PiAt peak. Image PiAfter passing, image Pi + 3The brightness gradually decreases until. That is, an example is shown in which a person image gradually emerges from a black image, and then gradually fades out to return to a black image. Even when the brightness of the image is reversed, the operation is the same as described above, and the detailed description is omitted.
[0062]
The sum (product sum) of the product of the difference value between adjacent images and the frequency for each difference value index is DiRepresented by A change from “low brightness” to “high brightness” is expressed as “plus” and vice versa. Product sum DiIndicates the difference between the two images compared.
[0063]
Described below is a representative image selection processing procedure in the case where the above-mentioned sum of products is smaller than a separately determined threshold value and is determined to be a similar image.
[0064]
Image Pi-4And Pi-3, Pi-3And Pi-2, Pi-2And Pi-1, Pi-1And PiProduct sum D betweeniAre both in the “plus”, that is, in the area where the image of the person appears. However, PiAnd Pi + 1D betweeniTurns to “minus”, that is, the fade-out area of the figure, and Pi + 1And Pi + 2, Pi + 2And Pi + 3Maintain “minus” during the period. The trend from “low brightness” to “high brightness” is the image PiAnd image Pi + 1Is the result of the reversal betweeniAnd Pi + 1The point between is the point of change.
[0065]
Image P located immediately before the change pointiIs the brightest and clearest of the previous and next images. That is, since the features common to the image group appear in a form that is most easily identified, this is adopted as a representative image and Pi-4, Pi-3... Pi + 4Are registered in the representative data storage unit 88 as similar images.
[0066]
Next, a representative image selection processing procedure in the case where it is determined that the above-mentioned exponent sum is larger than a separately determined threshold value and is not a similar image will be described.
[0067]
FIG. 14 shows that the image group of group 1 that has changed from “low brightness” to “high brightness” is an image P.iAnd image Pi + 1Shows a case where the image group suddenly changes to a group 2 image group that is not similar. In this case, the exponent sum is larger than a separately defined threshold value. At this time, as described above, the last image P in the group 1 image group.iAre registered as representative images. Image Pi-4, Pi-3, Pi-2, Pi-1Only information other than image data is stored and registered in the representative data storage unit 88 as similar images.
[0068]
The above operation is repeated, and several types of representative images and their similar images are extracted from a large number of image groups acquired over a wavelength range of 250 to 2,000 nm, and stored and registered in the representative data storage unit 88 together with similar image information.
[0069]
In this way, optical features are automatically extracted from one sample, and an image that well represents the features is sorted and stored as a representative image. This series of image analysis is performed according to the flowchart of FIG. Carried out.
[0070]
In step S101 in FIG. 15, a difference value for each pixel between the “current image” and the “previous image” is obtained for all the pixels. “Current image” is an analysis image (image to be analyzed) that is currently being analyzed, and “previous image” is an analysis image that was analyzed immediately before. It is assumed that the “previous image” has already been found to be similar to any one of the representative images. In step S102, the sum of absolute values of the products of the difference value index emphasizing the value of the difference value obtained by the method of FIG. 11 and the frequency for each difference value index is obtained as the exponent sum. In step S103, it is determined whether the exponent sum is equal to or greater than a predetermined threshold value. If the predetermined threshold value is not reached, it is determined that the current image is similar to the previous image and the process proceeds to step S104.
[0071]
In step S104, it is determined whether or not the current image is “brighter” than the previous image. As described above, “bright” means that the amount of reflected light is large in the imaged wavelength band. That is, the characteristic pattern that should appear in the imaging wavelength band appears more clearly. In the “brightness” comparison, not the exponential sum but the sum of products of the difference value and the frequency with the sign of positive and negative (product sum in FIG. 10) is used (the same applies to step S105 and step S106).
[0072]
If the current image is brighter than the previous image, the process proceeds to step S105. Here, a difference value for each pixel between the representative image having the same relationship as the previous image and the current image is obtained over all the pixels, and the brightness is compared. As a result, if it is determined in step S106 that the current image is brighter than the representative image by a predetermined value or more, the process proceeds to step S107.
[0073]
In step S107, the representative image of the similar group is updated, the current image is used as a new representative image, and the image that has been the representative image so far is registered as a new representative image.
[0074]
If the current image is not brighter than the previous image in step S104, the process proceeds to step S108. Then, it is registered as being similar to the previous representative image.
[0075]
If it is determined in step S106 that the current image is not brighter than the representative image by a predetermined value, the process also proceeds to step S108. Then, it is registered as being similar to the previous representative image.
[0076]
If it is determined in step S103 that the exponent sum is equal to or greater than the predetermined threshold value, the current image and the previous image are dissimilar, and the process proceeds to step S109.
[0077]
In step S109, all the representative images registered so far and / or in the current feature extraction process for the sample are compared with the current image, and the minimum difference representative image is searched for as the most approximate image, and the process proceeds to step S110. .
[0078]
In step S110, the most approximate representative image is provisionally set as the representative image of the current image, and a difference value for each pixel between the temporary set representative image and the current image is obtained over all pixels. In step S111, the sum of the products of the difference value index emphasizing the difference value obtained by the method of FIG. 11 and the frequency for each index is obtained as the exponent sum. In step S112, it is determined whether the exponent sum is equal to or greater than a predetermined determination value. If the predetermined determination value has not been reached, the process proceeds to step S108 on the assumption that the minimum difference representative image as the temporary representative is similar to the current image, and the same processing is executed.
[0079]
If the index sum is greater than or equal to the predetermined determination value in step S112, the process proceeds to step S113 on the assumption that the minimum difference representative image as the temporary representative and the current image are dissimilar. The current image is registered as a new representative image.
[0080]
As for the image data, all the detailed image data used for the feature extraction calculation is left for the representative image. For images other than the representative image, only the collation data (classification information such as optical characteristic feature extraction conditions) with the representative image is left, and the image data itself can be erased. This makes it possible to save the amount of memory spent on one sample.
[0081]
The feature extraction apparatus 1 stores and holds a read image from the camera corresponding to the representative image as a representative real image. Even if high-speed processing is simply performed on the basis of the compressed image data separately set for the difference value calculation of the preceding and following images and other classification and sorting operations, detailed camera image data is retained as a representative real image as it is. When the re-sorting calculation is performed based on the calculation specifications, it is possible to perform feature extraction with high accuracy from each representative real image data and collation data.
[0082]
In the feature extraction device 1, when it is necessary to identify different samples using extracted features, the wavelength of light emitted at a predetermined pitch and / or the center wave of the received light is made different. Imaging is performed with emphasis on the optical characteristics of the new sample paper for each band. Then, a representative image of the reference specimen sample is acquired, and it is checked whether or not an image that approximates this representative image in a predetermined wavelength range has been acquired. Furthermore, the expression band of the similar image of each representative image is checked for difference at a necessary location, and collation determination is performed. In addition, when many similar samples with unique characteristics are sporadically divided and inspected, as described above, the characteristics of the samples over a wide wavelength band are extracted and classified in a unified manner. Therefore, it is possible to accurately perform the matching determination in a short time.
[0083]
Here, the collation data will be described using the imaging log example of FIG. The imaging log is composed of a search specification part and an imaging data index part. “Search number” is a number assigned to each sample or each search unit. “Sample size” indicates the size of the sample to be imaged, and is 50 mm × 50 mm in this example. The description of “irradiation wavelength” indicates that the wavelength range is 250 to 970 nm and changes at a pitch of 30 nm. “Camera” indicates that a CCD camera is used out of a CCD camera and an infrared camera. “CCD image size = 4 × 4 (256 × 256)” indicates that 4 pixels × 4 pixels are handled as one unit and is treated as an area of 256 pixels vertically and horizontally. The “CCD exposure time” is 30 mS. “CCD exposure time automatic adjustment = 0” indicates that automatic adjustment is off. “CCD detection wavelength” includes the values of the sweep start wavelength, the sweep end wavelength, and the imaging wavelength pitch, which are all 0 in this example. This indicates that all wavelengths (white light) are set.
[0084]
Arbitrary characters can be entered in the “MEMO” column for later reference. The “number of images” is the number of captured images calculated based on the setting contents such as the irradiation wavelength. In this example, the number of captured images is 25, and there are 25 types with different measurement conditions. “CCD cooler temperature = −39” indicates that the cooling temperature of the CCD image sensor is −39 ° C., and “IR cooler temperature = 0” indicates that the IR image sensor is not used. . “Cutout position” indicates coordinates within the effective area of the captured image, and is set to “10, 33, 229, 233” in this example. “White reference position” indicates a white reference image area, which is a rectangular area represented by “119, 39, 127, 47” in this example. Similarly, the “black reference position” is a rectangular area represented by “123, 238, 131, 246”. “Folder” is a folder name in the hard disk for storing captured image data, and uses a search number.
[0085]
In the index part of the latter half of the imaging data, consecutive numbers are assigned to the images from “search start” to “search end”, and the imaging conditions are recorded. For example, the line 00000003 is described as follows. “17:28:50” is the imaging time and indicates that the image was captured at 17:28:50. “F = MCX0250-0000.BMP” means an image file in the BMP format, and actual image data is stored with this file name. The image pickup means is a CCD image pickup device, the lamp is a xenon lamp, and the irradiation light. Indicates that the light-receiving side transmits light in the entire wavelength region.
[0086]
Reading the data following the file name is as follows. “T = 30.0” indicates that the exposure time is 30.0 mS. “W = 636” indicates that the white reference read value at the white reference position under the above-described conditions is a 636AD value. “B = 621” also indicates that the black reference read value at the black reference position is the 621AD value. “S = 735 >> 601” is a value of an effective dynamic range to be corrected. When corrected, a dynamic range of 256 gradations is taken between 735AD and 601AD values. “OK” at the end indicates a normal captured image.
[0087]
In the data shown in FIG. 25, the memory can be saved by leaving only the file name data and the imaging condition data attached thereto as collation data of the optical characteristic feature extraction condition and deleting the actual image data. .
[0088]
Now, each of the CCD camera 51 and the infrared camera 52 has a unique light sensing characteristic. FIG. 16 conceptually shows this. FIG. 16 shows the wavelength band on the horizontal axis and the sensitivity on the vertical axis. The imageable wavelength bands of both cameras overlap in the vicinity of 1,000 nm, and the two cameras are switched and used with the switching point being 1,000 nm. However, at the switching point as it is, the image brightness and the density gradient are completely different between the image captured by the CCD camera 51 and the image captured by the infrared camera 52. In this state, there are two types of image data under the same conditions, and the image processing software and the data storage unit are dualized, and the system resources of the arithmetic device 3 are consumed extra.
[0089]
Therefore, in the present invention, the degree of approximation of the captured images of the CCD camera 51 and the infrared camera 52 at the switching point is equal to or higher than a predetermined level, that is, as if the imaging across the switching point is performed with a single camera. Correct both cameras. Specifically, the brightness of the image is corrected by adjusting the exposure time of the camera, and the density gradient is corrected by adjusting the sensitivity and gain. Only one or both of the brightness and the density gradient may be corrected. Since it is desirable that the imaging characteristics be flat even when the switching point is separated, correction is performed in each wavelength band. FIG. 17 conceptually shows the sensitivity characteristics after correction.
[0090]
To correct the brightness and density gradient of the image, a brighter (white) reference point and a darker (black) reference point are set in advance on a part of the imaging surface. On the other hand, the darker one needs to be corrected so that it is the same level in the darker one. In determining the reference point, one of the following two methods is used.
[0091]
In the method shown in FIG. 18, prior photographing is performed under the photographing conditions set in advance for the feature photographing of the sample to display the picked-up image, and the coordinates of the reference point are set in the image plane of the sample. The display unit 82 of the arithmetic device 3 serves as a preceding captured image display unit for displaying a captured image of the preceding shooting. Input means such as a keyboard included in the operation unit 81 serves as setting input means for setting the coordinates of the reference point.
[0092]
Reference numeral 90 denotes an image of a sample, in which a white reference point 91 is set in a bright part and a black reference point 92 is set in a dark part. When the monochrome reference points 91 and 92 of the image captured by the CCD camera 51 are compared with the monochrome reference points 91 and 92 of the image captured by the infrared camera 52, the brightness of the both reference points and the reference points 91 and 92 by both cameras are compared. The camera control values are corrected so that the density gradient (light grayscale difference) between them becomes an approximation degree equal to or higher than a predetermined level.
[0093]
In the method shown in FIG. 19, a black and white reference marker separately disposed on the sample holder 23 so as to be positioned at a predetermined position outside the sample surface is used. That is, the white reference marker 93 and the black reference marker 94 are attached to a place where the white reference marker 93 and the black reference marker 94 are not covered by the sample of the paper sheet, and the images of the black and white reference markers 93 and 94 are captured together with the sample image. Based on the images of the black and white reference markers 93 and 94, the camera control value is corrected in the same manner as described above.
[0094]
Regarding the correction of the camera control value, a predetermined degree of approximation can be obtained by the same correction between the captured images of the respective cameras. An approximate image can be obtained in the same manner when the sensitivity difference for each wavelength band of the camera and / or the light source lamp is switched.
[0095]
The light accumulation time adjustment can be realized by using a CCD having a so-called variable time shutter function. The procedure for automatically setting the exposure time of both the CCD and infrared cameras in this embodiment will be described with reference to FIGS. In the present embodiment, as shown in FIG. 21, the white level value (W) of the reference image separately set as a target for the white level value (wn) of the obtained image within the separately set allowable maximum exposure time (Tm). The exposure time is automatically selected and set so as to be within a predetermined allowable value (reference white level value ± 30%).
[0096]
First, a white level value (w1) for photographing at a predetermined exposure time (T1) is obtained (step S201) and compared with a target reference white level value (W) (step S202). In this comparison, if the difference between the two levels is within the predetermined allowable value, this image is regarded as an appropriate image, and the automatic exposure time setting ends (step S203). On the other hand, if it is outside the allowable value, the appropriate exposure time (Tf) corresponding to the value of the difference between the two levels in the comparison is predicted and set from the preset appropriate exposure time table (step S204). A level value (wf) is obtained (step S205). The appropriate exposure time (Tf) can also be determined using a mathematical formula described later.
[0097]
Next, the new white level value (wf) is compared with the reference white level value (W) again (step S206). If it is within the allowable value, an appropriate image is obtained and the automatic exposure time setting ends. (Step S207). In the present embodiment, when the white level value (wf) of the captured image at the exposure time (Tf) is not appropriate, the appropriate exposure time (Te) is re-predicted and photographed (step S208). This is the final exposure time, and no further optimization of the exposure time is performed. That is, the exposure time optimization re-predictive shooting is prevented from continuing indefinitely due to abnormal fluctuations in the captured image grayscale value caused by the illumination light source light, the optical optical path, and / or the camera failure. In this embodiment, whether or not the difference value between the white level value (we) of the captured image at the final exposure time (Te) and the target reference white level value (W) is equal to or less than a predetermined approximate value set separately. Confirmation is performed (steps S209 to S212).
[0098]
In addition, even if the exposure time is changed, even if the white level value of each captured image cannot be changed accordingly, this is detected and an alarm is activated. Further, even when the predicted appropriate exposure time exceeds the allowable maximum exposure time (Tm), this is detected and an alarm is activated, but the detailed description is omitted.
[0099]
The appropriate exposure time (Tf) can be calculated from the following equation.
Tf = T1 × (W−w0) / (w1−w0)
Tf <Tm
Here, it is assumed that the exposure time and the imaging white level are directly proportional. FIG. 21 shows an example in which the captured image white level value at the camera exposure time “0” is approximately calculated as (w0).
[0100]
Furthermore, the feature extraction apparatus 1 can acquire a captured image in a state in which the photographing exposure time is fixed to an arbitrary set value by a selection operation, and can perform feature extraction and classification calculation from these images. From these captured image values, it is also possible to confirm and contrast the absorption and reflectance of the irradiated light under each imaging condition of the sample.
[0101]
In addition, regarding the change adjustment of the white level value of the captured image, a transition metal oxide or the like (IrOx, Ta2OFive・ WOThreeEtc.) may be placed, and a light transmittance or light transmission amount of the film may be adjusted by applying a voltage to the physical element. For this adjustment, an applied voltage used for each imaging wavelength or a shutter opening time setting table is prepared in advance as described above.
[0102]
An example of a density gradient correction method using the above-described black and white reference correction will be described with reference to FIG. Here, an “arithmetic imaging unit” in which the arithmetic device 3 and the imaging device 50 are combined is assumed. In the example of FIG. 23, a monochrome reference portion is set for a camera-captured image of about 1 million pixels with 16,384 gradations. The white level value W of the white reference portion is set so that the white portion w has the gradation value 200 in the 256 gradation camera image data. Similarly, the black level value B of the black reference portion is set so that the black portion b has the gradation value 30 in the 256-gradation camera image data.
[0103]
Enlargement / reduction correction operations are performed at the same ratio (here, defined as ratio α = (WB) / (w−b)) so as to obtain a gradation image with the above settings, and camera image data is obtained sequentially. . As a result, the camera image data in which the characteristics of the sample to be measured are expressed with a predetermined grayscale level from a camera-captured image in which the offset (brightness level) value and / or the black and white reference value fluctuate due to changes in the measurement environment. Is obtained.
[0104]
In the present embodiment, an enlargement calculation prevention measure is taken so that an excessive enlargement calculation is not performed in the process of the enlargement / reduction correction calculation. This will be described with reference to the flowchart of FIG. In the conversion from the 16,384 gradation shown in FIG. 23 to the 256 gradation scale, the conversion areas indicated by MAX to MIN in FIG. 23 are determined. If the difference between the white reference light level W and the black reference light level B at 16,384 gradations is extremely small, it will be extremely enlarged if converted to w and b of 256 gradations. In order to prevent this, the allowable ranges DW and DB are set. The final determined range of 16,384 gradations MAX to MIN is converted to a 256 gradation 255 to 0 scale.
[0105]
In the flow of FIG. 22, first, imaging is performed (step S301), and a lower limit value X (154) in which a difference value (W−B) between the white level value W and the black level value B of the black and white reference portion of the camera captured image is set separately. ) Or not (step S302). If it is equal to or greater than the lower limit value X, the MAX value is set to W + α * (255−w) = W + 55α (step s303). On the other hand, the MAX value is set to W + DW = W + 50 so that an excessive enlargement calculation is not performed when the value is less than the lower limit value X (step S304).
[0106]
Next, the lower limit MIN is determined. It is checked whether or not the difference value (WB) between the white level value W and the black level value B is not less than a separately set lower limit value Y (113) (step S305). If the difference value is not less than the lower limit value Y, the MIN value is set to W + α ( 0−w) = W−200α (step S306). On the other hand, if it is less than the lower limit Y, the MIN value is set to B−DB = B−20 so that an excessive enlargement calculation is not performed (step S307).
[0107]
Each pixel value of the sample imaged by the CCD camera is converted so that the range of MAX to MIN values in 16,384 gradations is 0 to 255 in 256 gradations.
[0108]
As described above, when the difference value between the white level value W and the black level value B is equal to or smaller than a preset value, the white level value W and the black level value B are not subjected to the enlargement / reduction operation as they are. By adding / subtracting the set value to obtain the second predetermined level value, and performing the enlargement / reduction correction operation on the second predetermined level value, in other words, the imaging screen having a slight difference in light and shade levels, in other words, the black and white reference portion Images having substantially the same level value are prevented from being converted into a grayscale image in which the difference is excessively subjected to gradation correction calculation.
[0109]
The lower limit values (X, Y) and the operation constants (DW, DB) used in the above description are merely examples, and are not limited to these. In addition, although the calculation is performed using both the black and white level values (W, B) of the black and white reference portion of the camera photographed image, the same scaling correction calculation is performed even if the maximum and minimum gray values in the sample image are used. It can be performed.
[0110]
In the present embodiment, the following functions are provided for the purpose of capturing a minute grayscale image using an infrared camera or the like as shown in FIG. In FIG. 24, the number of the camera imaging element (consent with the pixel) is taken on the horizontal axis 65,535 (= 256 × 256), the received light amount level is taken at 16,384 gradations on the vertical axis, and both monochrome reference for each element. It is also possible to perform gradation gradation correction calculation for each image pickup device by setting a value. In this case, as shown in the lower diagram of FIG. 24, each image value of the camera image pickup element in a state where the light source irradiation light is shielded as shown in the upper diagram of FIG. Each image value of the camera image pickup element in a state where the light source light is irradiated on the reference paper serving as the white reference is stored as each white reference value. The black and white reference values for the respective image pickup devices stored in this way are predetermined black and white level values, for example, in a 256 gradation image, the white portion w has a gradation value of 200 and the black portion b has a gradation value. By performing the correction calculation for the image pickup value of the sample for each image pickup element so as to be 30, the enlargement / reduction correction calculation of the image pickup element can be executed as described above, and the features can be grasped in detail and precisely.
[0111]
In addition, by setting a plurality of black and white reference values corresponding to the light source irradiation light and / or each light emitting / receiving wavelength band, it is possible to perform appropriate correction under each measurement condition.
[0112]
By correcting the camera control value in this way, the image processing software and the data storage unit can be unified, and system resources can be saved and the processing speed can be increased. In addition, when the brightness and / or density gradient is additionally corrected with different accuracy as necessary, the original captured images are approximated so that accurate calculation processing is possible, and image features Can be clarified. Data for performing these correction calculations is stored in the correction data storage unit 85.
[0113]
When the number of pixels (pixel size) is different between cameras, it is possible to perform matching processing by image compression correction or the like (detailed explanation is omitted).
[0114]
FIG. 26 shows a feature extraction system according to the second embodiment of the present invention. In this system, the image analysis function is separated from the feature extraction device 1A, and the image analysis is performed by the arithmetic device 500 connected to the feature extraction device 1A via the communication line 400.
[0115]
The configuration of the main body 2 of the feature extraction device 1A is not different from the configuration of the main body 2 of the feature extraction device 1 of the first embodiment. That is, although not shown in FIG. 26, the optical section 11 includes the sample holder 23, the inspection light generator 30, and the imaging device 50. In this case as well, the sample holder 23 holds paper sheets such as banknotes, securities, and stamps. The inspection light generator 30 functions as an irradiation unit that selectively irradiates the sample with a plurality of types of light as inspection light. The imaging device 50 functions as an imaging unit that captures images of reflected light from the sample (including excitation light of the fluorescent substance, including excitation light) in different wavelength bands and acquires images corresponding to the respective wavelength bands. .
[0116]
The configuration of the control section 12 of the main body 2 is the same as that of the feature extraction device 1 of the first embodiment. However, the configuration of the arithmetic unit 3 is different from that in the first embodiment. That is, the image analysis unit 87 and the representative data storage unit 88 disappear from the arithmetic device 3 of the first embodiment, and a communication unit 89 is provided instead. The communication unit 89 is connected to the communication line 400. The communication line 400 may be in any form. It can be a dedicated line or the Internet.
[0117]
An arithmetic device 500 is connected to the communication line 400. The arithmetic device 500 is separate from the feature extraction device 1 and can be installed in a facility such as a data center.
[0118]
The block configuration of the arithmetic device 500 is as follows. A central processing unit 501 includes a microprocessor and a storage device. The central processing unit 501 controls the arithmetic device 500 and processes and outputs data according to a program. An operation unit 502 includes an input unit such as a keyboard and various switches provided on the main body of the arithmetic device 500. Reference numeral 503 denotes a display unit, which includes a monitor such as a CRT or liquid crystal, and a display unit such as a light emitting diode provided in the main body housing of the arithmetic device 500. A communication unit 504 exchanges data with the communication unit 89 of the feature extraction apparatus 1A. The communication units 89 and 504 can be configured by a communication interface such as a modem.
[0119]
Reference numeral 505 denotes an image analysis unit that extracts features by performing an operation according to a predetermined rule for the image data transmitted from the feature extraction apparatus 1A. A representative data storage unit 506 stores a representative image selected as having clear characteristics and related data. The image analysis unit 505 and the representative data storage unit 506 are configured by using the system resources of the central processing unit 501 as they are or by adding hardware elements to the system resources of the central processing unit 501. The image analysis unit 505 and the representative data storage unit 506 perform the same processing as the image analysis unit 87 and the representative data storage unit 88 of the first embodiment, but can handle a larger amount of data.
[0120]
As described above, a feature extraction system is configured by the feature extraction apparatus 1A installed at the site where the sample is handled and the arithmetic unit 500 installed in the remote data center and connected to the feature extraction apparatus 1A via the communication line 400. In this case, the image data collected by the plurality of feature extraction apparatuses 1A can be collected in the arithmetic unit 500 of the data center, and feature extraction and aggregation, and feature matching with the reference sample can be collectively processed.
[0121]
As a result, unified feature data over a wide wavelength band can be collected and managed by sample in a large-scale data processing environment such as a data center. By having the same feature extraction apparatus 1A re-inspect the same sample and verifying whether or not the inspection data obtained as a result matches the previous data, the inspection capability of the feature extraction apparatus 1A is affected by environmental changes and secular fluctuations. It is also easy to diagnose whether there is no change in the above and whether there is a problem in reproducibility.
[0122]
Also, when performing characteristic inspection for the first sample, read out the inspection light wavelength band, control setting values of various cameras, various calculation constants at the time of correction, etc. of the same inspection sample and the same as those values Can be set to a value. Therefore, feature extraction and collation determination processing can be easily performed under the same conditions as the same type of sample.
[0123]
Furthermore, regarding a plurality of separately selected samples, a plurality of feature data corresponding to each sample that have been feature-extracted and classified to form part of the above-described centralized feature data, and variations of these feature data, And average characteristics can be retrieved and displayed. Further, when the feature data of the first appearance sample is obtained, the similarity determination calculation based on the Euclidean distance between the feature data and the selected plurality of samples can be performed.
[0124]
Further, when a plurality of feature extraction devices 1A are connected to one arithmetic device 500, individual control or integrated control is performed using the above-described one control arithmetic method while taking into account variations of the individual feature extraction devices 1A. However, detailed description is omitted.
[0125]
Although various embodiments of the present invention have been described above, various modifications can be made without departing from the spirit of the present invention.
[0126]
【The invention's effect】
The present invention has the following effects.
[0127]
When capturing an image of a sample to extract features by performing an operation on the sample image according to a predetermined rule, an imaging apparatus that captures an image of the sample includes a plurality of cameras having different imageable wavelength bands in a predetermined wavelength overlapping region. It is used by switching at the wavelength, and the degree of approximation of the captured images of both cameras at the switching point is above a predetermined level.The brightness of the white level value of the white reference point and the black level value of the black reference point captured by both cameras having the wavelength overlap region and the density gradient between both reference points within the wavelength overlap region are predetermined levels. Enlargement / reduction correction calculation is performed on the grayscale values of the captured images at the same rate so as to achieve the above approximation.Therefore, it is possible to search in a wide wavelength band by a plurality of cameras. Further, even when switching from one camera to the other, the difference in images is small, and the optical characteristics of these images can be extracted by the same image processing method. Therefore, even if there are a plurality of cameras, the image processing software and the data storage unit can be unified, and system resources can be saved and the processing speed can be increased.
[0128]
By correcting the camera and / or the input image so that the brightness of all the captured images and / or the degree of approximation of the gray scale gain are equal to or higher than a predetermined level, together with the captured images of both cameras at the switching point, Image data can be unified and data processing can be easily performed while covering a wide wavelength band by a plurality of cameras having different sensitivity bands.
[0129]
A sample is held in a sample holder, the sample is irradiated with inspection light generated by the inspection light generator, and the sample surface is imaged in a predetermined different wavelength band by the imaging device, and images corresponding to these wavelength bands Therefore, it is possible to reliably acquire images for each wavelength band necessary for extracting the optical characteristics of the sample.
[0130]
Since the sample is irradiated with multiple types of light with different wavelengths in stages as inspection light, the optical characteristics of the sample surface corresponding to each of these multiple types of irradiated light are precisely searched and analyzed, and features Can be accurately grasped.
[0131]
A white reference point indicating a brightness level is provided in the captured image, and the brightness level value of the reference point of the captured image obtained sequentially is set to a brightness that matches a preset white level value within a predetermined allowable error value. Since the image pickup means to be controlled is provided, variations in camera sensitivity can be compensated for, and adverse effects caused by variations in camera sensitivity can be eliminated. In addition, it is possible to search for optical characteristics in a wide wavelength band by a plurality of cameras. In addition, even when switching from one camera to the other, the difference in images is small, and optical features can be extracted by the same image processing technique. Therefore, even if there are a plurality of cameras, the image processing software and the data storage unit can be unified, and system resources can be saved and the processing speed can be increased.
[0132]
Since the white and black reference point white level value and black level value each have a predetermined grayscale level value, the grayscale value of the captured image is subjected to enlargement / reduction correction calculation at the same rate so that camera images are obtained sequentially. The dynamic range of each captured image is aligned, and variations in sensitivity of the imaging means (in terms of brightness and density gradient) can be eliminated.
[0133]
Even when precise matching correction that cannot be corrected by correction of brightness level, such as correction of camera exposure time, is required, a white reference point indicating the brightness level and a black reference point indicating the darkness level in the captured image Is used as an index for uniform correction of the captured image, and the grayscale value of the captured image is scaled and corrected at the same rate so that each of the black and white level values of both the black and white reference points becomes a predetermined grayscale level value. By calculating, it is possible to perform approximate correction so that the respective images have substantially the same level. For this reason, the clarification correction of the feature in the arithmetic processing can be performed more easily and accurately.
[0134]
In order to make the image characteristics clearer, the gray value of the image is corrected so that the black and white level of the black and white reference point obtained by the imaging means becomes the preset black and white levels (light and shade gradation values). By obtaining the camera image data while calculating, the brightness and / or shading gain of the imaging signal level is corrected to a constant level even for fluctuations in the imaging means, light source quantity, and / or other measurement environments. It is unified and it is possible to accurately grasp the characteristics of these captured image data.
[0135]
In addition, each black and white reference point is composed of a plurality of pixels close to each other, and the average value of these pixels is used as a reference value to prevent erroneous calculation due to a reference value that is inappropriate due to cosmic ray noise or other point noise. is doing. In addition, the black and white reference point gray value of the corrected image is set to stay inside with a predetermined width so as not to fall below the minimum value or above the maximum value of the camera image data. As a result, it is possible to accurately correct and display image features that are somewhat over or under-current from both black and white reference points without being over-current or under-current.
[0136]
An accurate centralized target level can also be corrected by separately providing a white reference marker and a black reference marker in the imaging area and inputting these coordinates.
[0137]
The black and white reference point provided in the captured image of the camera can be set at an arbitrary position in the captured image of the sample surface, or can be set at a black and white reference marker provided at a predetermined position outside the sample surface. By doing so, it is possible to perform correction so as to clarify the characteristics of the light and shade of the sample surface, and it is also possible to clarify the characteristics between the captured images using the monochrome reference marker as a reference.
[0138]
Pre-photographed image display means for performing pre-photographing under predetermined photographing conditions and displaying this picked-up image at the time of characteristic photographing of the sample surface, and the coordinates of the white reference point and the black reference on the image displayed on the pre-photographed image display means Reference point coordinate setting input means for setting the coordinates of the point is provided, and both the black and white reference points whose coordinates are set by the setting input means are provided.Brightness and concentration gradient between both reference pointsIs used as an index of the same-scale enlargement / reduction correction calculation of the captured image gray value obtained thereafter, so that the white reference point and the black reference point can be set at appropriate coordinate positions in the image while confirming the preceding captured image, A black and white reference point having an appropriate level value can be set as an index for calculating the same ratio scaling correction of the gray value of the captured image obtained thereafter.
[0139]
With respect to the arithmetic imaging means, a difference between the black and white level values of the black and white reference points is obtained for a captured image obtained from the sample surface, and when the difference value is equal to or smaller than a preset value, the black and white both level values are set to a predetermined value. Since the enlargement / reduction correction calculation is performed on the second predetermined level value obtained by adding / subtracting the set value, an excessive gradation calculation correction of a captured image with a small gray level value is prevented. When an image with a minute difference, that is, an image such as almost all white or black is obtained, the minute gradation characteristic is not abnormally enlarged and corrected, and it is meaningless due to the mixing of an abnormally corrected and misleading corrected image. It is possible to prevent feature extraction and / or similar classification operations of these features from being performed.
[0140]
In the case of an image such as almost all white or black as described above, the maximum and / or minimum value of black and white is set to a value far from the signal level of the black and white reference point, and is corrected and displayed as a singular image different from other images. By doing so, it is possible to reliably prevent meaningless feature extraction and / or similar classification operation of these features.
[0141]
When capturing images with minute differences in light and shade levels, when setting the monochrome reference value for each image sensor on the light receiving surface of the camera so that tone gradation correction can be selected for each image sensor, and light source illumination light is eliminated The camera image value for each pixel is used as the black reference value for each pixel, and the camera image value when the light source light is irradiated on the separately provided white reference paper is used as the white reference value for each pixel. By performing the enlargement / reduction correction operation so that the value becomes a predetermined gradation level value, it is possible to accurately grasp the characteristics of a minute gradation level image. It is also possible to set a plurality of black and white reference values corresponding to the light source light to be measured and / or the wavelength band of light transmission / reception, and to select and correct these according to measurement conditions.
[0142]
For each image captured by the camera, the type of camera that captured each image, its exposure time, the coordinate values and reference values of both black and white reference points, the type of light source lamp, the irradiation wavelength and imaging wavelength, both corrected black and white By storing together with reference values and measurement conditions such as the pixel size (resolution) of the acquired image, feature extraction from captured images obtained under different imaging conditions, for example, images corrected with different black and white reference values, and these Comparison of images, confirmation of image reproduction before correction, and the like can be performed.
[0143]
A sample holder for holding the sample;Irradiation means for sequentially irradiating the sample with a plurality of types of light having different wavelengths stepwise as inspection light, and a plurality of light beams having different center wavelengths on the sample surface of the sample. An imaging device that captures an image corresponding to each wavelength band and obtains an image corresponding to each wavelength band, extracts optical characteristics of the sample from the captured image, and obtains representative images of a plurality of images A feature extraction system comprising the sample holder, the irradiating means, and the imaging device, wherein the imaging devices have different wavelength bands that can be imaged from each other, each has a unique photosensitivity characteristic, and imaging by a single camera It consists of a plurality of cameras in which a part of the possible wavelength band overlaps with a part of the imageable wavelength band of the other one camera to form a wavelength overlapping region, and the brightness level is shown in the captured image of the sample holder White A main body provided with a black reference point indicating a quasi-point and a darkness level; and a white level value of the white reference point and the black reference point captured by both cameras having the wavelength overlap region in the wavelength overlap region An arithmetic device that sequentially obtains camera image data while performing the scaling correction calculation of the grayscale value of the captured image at the same rate so that the brightness of the black level value and the density gradient between the two reference points are equal to or greater than a predetermined level.Connected with a communication line, the captured images obtained by the main unit are collected in the arithmetic unit and feature extraction is performed, so the arithmetic unit can be installed at an arbitrary location away from the main unit become.
[0144]
Arithmetic units can be installed without physical connection to the main unit, so the computing unit is positioned as a data center, giving it a large data processing capability, and even if the hardware becomes larger, it can provide an environment that can accept it Is possible. As a result, even if enormous feature data is obtained from the sample, the data can be collected and managed by sample.
[0145]
The inspection ability of the main body can be diagnosed by re-inspecting the same sample and checking the degree of coincidence with the previous inspection data. Further, by checking and checking the degree of coincidence of the inspection data of a large number of samples belonging to the same category, it is possible to grasp the variation in characteristics between these samples. In addition, since the average characteristics of a large number of samples can be obtained, it is possible to more accurately perform the feature collation determination when the feature extraction and the difference determination are necessary for a new sample.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a feature extraction device according to a first embodiment of the present invention, in which an optical mechanism portion is a cross-sectional view.
FIG. 2 is a horizontal sectional view of the main body of the feature extraction device.
FIG. 3 is a horizontal sectional view similar to FIG. 2, showing different states
FIG. 4 is a horizontal sectional view of the light source section.
FIG. 5 is a horizontal sectional view similar to FIG. 4, showing different states
FIG. 6 is a front view of a bandpass filter.
FIG. 7 is a block diagram of the feature extraction device.
FIG. 8 is a diagram showing the transition of an image when imaging is performed while shifting the wavelength.
FIG. 9 is a diagram for explaining a feature extraction method and showing an image of a difference between images.
FIG. 10 is a table of AD values expressing the difference value of an image as a digital value.
FIG. 11 is a table of exponents that are absolute values of difference values.
Fig. 12: Index graph
FIG. 13 is a first explanatory diagram of a method for selecting a representative image based on a difference value;
FIG. 14 is a second explanatory diagram of a method for selecting a representative image based on a difference value.
FIG. 15 is a flowchart of image classification work.
FIG. 16 is a diagram conceptually illustrating a situation in which captured images of a plurality of cameras are used without correction.
FIG. 17 is a diagram conceptually illustrating a situation in which images captured by a plurality of cameras are used after correction.
FIG. 18 is a diagram showing a situation in which a monochrome reference point for camera correction is set in a sample image
FIG. 19 is a black and white reference marker for camera correction.
FIG. 20 is a flowchart for setting an exposure time.
FIG. 21 is a graph illustrating automatic setting of exposure time
FIG. 22 is a flowchart of monochrome reference enlargement / reduction correction.
FIG. 23 is a diagram for explaining black and white reference enlargement / reduction correction;
FIG. 24 is a diagram showing an example in which gradation gradation correction is performed for each image sensor;
FIG. 25 is a diagram showing an example of an imaging log
FIG. 26 is a block diagram of a feature extraction system according to the second embodiment of the present invention.
[Explanation of symbols]
1 Feature extraction device
2 Body
3 arithmetic unit
10 Housing
11 Optical section
12 Control section
23 Sample holder
30 Inspection light generator
31 Light source
38 Spectrometer
50 Imaging device
51 CCD camera
52 Infrared camera
57 Spectrometer
58 Bandpass filter
87 Image analysis unit
91 White reference point
92 Black reference point
93 White reference marker
94 Black reference marker
1A feature extraction device
400 communication line
500 arithmetic unit

Claims (4)

試料を保持する試料ホルダと、
紫外域から近赤外域にわたる波長域の光であって、段階的に波長が異なる複数種の光を検査光として前記試料に順次照射する照射手段と、
前記試料の試料面を中心波長が異なる複数の撮像可能波長帯域で撮像して各々の波長帯域に対応する画像を取得する撮像装置とを有し、
前記撮像画像から前記試料の光学的な特徴を抽出し、複数の画像の代表画像を得る特徴抽出装置であって、
前記撮像装置は互いに撮像可能波長帯域が異なり、且つそれぞれ固有の光感受特性を有するとともに、1台のカメラの撮像可能波長帯域の一部が他の1台のカメラの撮像可能波長帯域の一部と重複して波長重複領域となった複数のカメラからなり、
前記試料ホルダの撮像画像内に明るさレベルを示す白基準点と暗さレベルを示す黒基準点を設けるとともに、
前記波長重複領域内で、その波長重複領域を有する両カメラで撮像した前記白基準点の白レベル値と前記黒基準点の黒レベル値の明るさ及び両基準点間の濃度勾配が所定レベル以上の近似度となるように前記撮像画像の濃淡値を同率に拡縮補正演算しつつ順次カメラ画像データを得る演算撮像手段を具備したことを特徴とする特徴抽出装置。
A sample holder for holding the sample;
Irradiation means for sequentially irradiating the sample with a plurality of types of light having different wavelengths in stages as light in a wavelength range from the ultraviolet region to the near infrared region,
An imaging device that captures an image corresponding to each wavelength band by imaging the sample surface of the sample in a plurality of imageable wavelength bands having different center wavelengths;
A feature extraction device that extracts optical features of the sample from the captured image and obtains representative images of a plurality of images,
The imaging devices have different wavelength bands that can be imaged from each other, have unique photosensitivity characteristics, and a part of the imageable wavelength band of one camera is a part of the imageable wavelength band of the other camera. Consisting of multiple cameras that overlap the wavelength overlap region,
While providing a white reference point indicating the brightness level and a black reference point indicating the darkness level in the captured image of the sample holder,
Within the wavelength overlap region, the brightness of the white level value of the white reference point and the black level value of the black reference point captured by both cameras having the wavelength overlap region, and the density gradient between both reference points are equal to or higher than a predetermined level. A feature extraction apparatus comprising arithmetic and imaging means for sequentially obtaining camera image data while performing a scaling correction calculation on the grayscale values of the captured image at the same rate so as to obtain a degree of approximation .
前記試料面の特徴撮影に際して所定の撮影条件で先行撮影を行ってこの撮像画像を表示する先行撮像画像表示手段と、
該先行撮像画像表示手段に表示された画像に白基準点の座標と黒基準点の座標を設定する基準点座標の設定入力手段を備え、
前記設定入力手段により座標を設定された白黒両基準点の明るさ及び両基準点間の濃度勾配をこの後に得られる撮像画像濃淡値の同率拡縮補正演算の指標とすることを特徴とする請求項1に記載の特徴抽出装置。
A pre-captured image display means for displaying the captured image by performing pre-photographing under a predetermined photographing condition during characteristic photographing of the sample surface;
Reference point coordinate setting input means for setting the coordinates of the white reference point and the black reference point in the image displayed on the preceding captured image display means,
The brightness of both black and white reference points whose coordinates are set by the setting input means and the density gradient between the two reference points are used as indexes of the same-scale enlargement / reduction correction calculation of the captured image gray value obtained thereafter. 2. The feature extraction apparatus according to 1.
前記演算撮像手段に関し、試料面から得られる撮像画像につき白黒両基準点の白黒両レベル値の差を求めるとともにこの差値が予め設定された値以下の場合、白黒両レベル値に所定の設定値を加減演算して得た第2の所定レベル値に対し拡縮補正演算を行うこととして、濃淡レベル値が微小な撮像画像の過大な階調演算補正を防止することを特徴とする請求項1に記載の特徴抽出装置。 With respect to the arithmetic imaging means, a difference between black and white level values of both black and white reference points is obtained for a captured image obtained from the sample surface, and when this difference value is equal to or smaller than a preset value, a predetermined set value is set for both black and white level values. 2. An excessive gradation calculation correction of a captured image having a small gray level value is prevented by performing an enlargement / reduction correction operation on a second predetermined level value obtained by adding / subtracting The feature extraction device described. 試料を保持する試料ホルダと、
紫外域から近赤外域にわたる波長域の光であって、段階的に波長が異なる複数種の光を検査光として前記試料に順次照射する照射手段と、
前記試料の試料面を中心波長が異なる複数の撮像可能波長帯域で撮像して各々の波長帯域に対応する画像を取得する撮像装置とを有し、
前記撮像画像から前記試料の光学的な特徴を抽出し、複数の画像の代表画像を得る特徴抽出システムであって、
前記試料ホルダ、前記照射手段と前記撮像装置を備え、前記撮像装置は互いに撮像可能波長帯域が異なり、且つそれぞれ固有の光感受特性を有するとともに、1台のカメラの撮像可能波長帯域の一部が他の1台のカメラの撮像可能波長帯域の一部と重複して波長重複領域となった複数のカメラからなり、前記試料ホルダの撮像画像内に明るさレベルを示す白基準点と暗さレベルを示す黒基準点を設けている本体部と、
前記波長重複領域内で、その波長重複領域を有する両カメラで撮像した前記白基準点の白レベル値と前記黒基準点の黒レベル値の明るさ及び両基準点間の濃度勾配が所定レベル以上の近似度となるように前記撮像画像の濃淡値を同率に拡縮補正演算しつつ順次カメラ画像データを得る演算装置と、
前記本体部と前記演算装置を接続し、前記本体部で得られた撮像画像を前記演算装置に集める通信回線と、
を有することを特徴とする特徴抽出システム
A sample holder for holding the sample;
Irradiation means for sequentially irradiating the sample with a plurality of types of light having different wavelengths in stages as light in a wavelength range from the ultraviolet region to the near infrared region,
An imaging device that captures an image corresponding to each wavelength band by imaging the sample surface of the sample in a plurality of imageable wavelength bands having different center wavelengths;
A feature extraction system that extracts optical features of the sample from the captured image and obtains representative images of a plurality of images,
The sample holder, the irradiating means, and the imaging device are provided, and the imaging devices have different wavelength bands that can be imaged from each other, each has a unique light-sensitive characteristic, and a part of the imageable wavelength band of one camera is A white reference point indicating a brightness level and a darkness level in a picked-up image of the sample holder, comprising a plurality of cameras that overlap with a part of the imageable wavelength band of another camera and become a wavelength overlap region A main body provided with a black reference point indicating
Within the wavelength overlap region, the brightness of the white level value of the white reference point and the black level value of the black reference point captured by both cameras having the wavelength overlap region, and the density gradient between both reference points are equal to or higher than a predetermined level. An arithmetic device that sequentially obtains camera image data while performing a scaling correction calculation on the grayscale value of the captured image at the same rate so as to be an approximation of
A communication line for connecting the main body and the arithmetic device, and collecting captured images obtained by the main body on the arithmetic device;
A feature extraction system characterized by comprising:
JP2002112229A 2002-04-15 2002-04-15 Feature extraction device Expired - Fee Related JP4247362B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002112229A JP4247362B2 (en) 2002-04-15 2002-04-15 Feature extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002112229A JP4247362B2 (en) 2002-04-15 2002-04-15 Feature extraction device

Publications (2)

Publication Number Publication Date
JP2003308515A JP2003308515A (en) 2003-10-31
JP4247362B2 true JP4247362B2 (en) 2009-04-02

Family

ID=29394795

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002112229A Expired - Fee Related JP4247362B2 (en) 2002-04-15 2002-04-15 Feature extraction device

Country Status (1)

Country Link
JP (1) JP4247362B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200257925A1 (en) * 2017-10-31 2020-08-13 Denso Corporation Inference device, inference method, and non-transitory tangible computer-readable medium

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4860914B2 (en) * 2004-12-07 2012-01-25 キヤノン株式会社 Image projection apparatus, image projection method, and program
JP4851723B2 (en) * 2005-03-04 2012-01-11 富士通株式会社 Internal structure image acquisition device, internal structure image acquisition method, and internal structure image acquisition program
JP4977068B2 (en) * 2008-03-18 2012-07-18 株式会社東芝 Image acquisition device and sample inspection device
US10928310B2 (en) * 2016-01-28 2021-02-23 Siemens Healthcare Diagnostics Inc. Methods and apparatus for imaging a specimen container and/or specimen using multiple exposures
JP6482486B2 (en) 2016-02-26 2019-03-13 富士フイルム株式会社 Photodetector

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200257925A1 (en) * 2017-10-31 2020-08-13 Denso Corporation Inference device, inference method, and non-transitory tangible computer-readable medium
US11625561B2 (en) * 2017-10-31 2023-04-11 Denso Corporation Inference device, inference method, and non-transitory tangible computer-readable medium

Also Published As

Publication number Publication date
JP2003308515A (en) 2003-10-31

Similar Documents

Publication Publication Date Title
JP5228490B2 (en) Defect inspection equipment that performs defect inspection by image analysis
RU2451340C2 (en) Method of identifying contamination and/or wearing of ink in colour transition areas on valuable documents and apparatus for realising said method
US7936377B2 (en) Method and system for optimizing an image for improved analysis of material and illumination image features
US20030161506A1 (en) Face detection computer program product for redeye correction
JP5055241B2 (en) Gas concentration measuring system and measuring method by electronic image colorimetry
JP2000508095A (en) Boundary mapping system and method
RU2438182C1 (en) Method of processing banknotes (versions)
KR20070099445A (en) Imager and its light source estimating device
JP2008014652A (en) Dust particle inspection system, dust particle inspection method, program and recording medium
JP4247362B2 (en) Feature extraction device
JP3050046B2 (en) Automatic particle classification system
EP1324283A1 (en) Document authenticity discriminating apparatus and method therefor
JP2002267600A (en) Reflecting characteristic measuring device
EP1947441B1 (en) Apparatus for determining positions of objects contained in a sample
JP4123469B2 (en) Feature extraction method
JP4936074B2 (en) Feature extraction method
JP3874562B2 (en) Glass plate crushing test method, apparatus and glass test imaging method
JP6844976B2 (en) Deterioration information acquisition device, deterioration information acquisition system, deterioration information acquisition method and deterioration information acquisition program
JPH08304284A (en) System for deciding antinuclear antibody reaction
JP2003244434A (en) Document authenticity discriminating apparatus and method therefor
CN115909254A (en) DMS system based on camera original image and image processing method thereof
JPH08105799A (en) Color classification device
CN117730249A (en) Display, data processing device, data processing method, and program
JP2001074663A (en) Appearance evaluation device
EP1081938A2 (en) Scanner with automatic detection of film type

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050107

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050325

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080819

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081216

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120123

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081008

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130123

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees