JP2008181556A - Feature extraction method - Google Patents
Feature extraction method Download PDFInfo
- Publication number
- JP2008181556A JP2008181556A JP2008075180A JP2008075180A JP2008181556A JP 2008181556 A JP2008181556 A JP 2008181556A JP 2008075180 A JP2008075180 A JP 2008075180A JP 2008075180 A JP2008075180 A JP 2008075180A JP 2008181556 A JP2008181556 A JP 2008181556A
- Authority
- JP
- Japan
- Prior art keywords
- image
- images
- feature
- predicted feature
- light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Inspection Of Paper Currency And Valuable Securities (AREA)
- Image Input (AREA)
- Image Processing (AREA)
Abstract
【課題】試料の特徴を、それが未知の試料であっても自動的且つ的確に抽出することのできる特徴抽出方法を提供する。
【解決手段】本体部2の中の試料ホルダ23に保持された紙葉類の試料に向け検査光発生装置30より検査光を照射し、試料からの反射光を撮像装置50で撮像する。複数個異なる波長帯域で撮像した画像をそれぞれ取得し、これらの画像につき演算装置3が所定のルールで演算を行って特徴を抽出する。特徴が明確に現れた画像を代表画像として代表データ格納部88に格納する。画像解析部87では、適宜設定した予測特徴画像のいずれかと個々の取得画像とを同類として関係づけ、個々の取得画像との関連をもって予測特徴画像を修正するという工程を繰り返すことにより予測特徴画像を収斂させ、特徴を明確化するとともに分類を行う。
【選択図】図1Provided is a feature extraction method capable of automatically and accurately extracting a feature of a sample even if it is an unknown sample.
An inspection light generator 30 irradiates inspection light toward a paper sheet sample held by a sample holder 23 in a main body 2 and images reflected light from the sample with an imaging device 50. Images acquired in a plurality of different wavelength bands are respectively acquired, and the calculation device 3 performs calculation according to a predetermined rule for these images to extract features. An image in which the features clearly appear is stored in the representative data storage unit 88 as a representative image. The image analysis unit 87 associates one of the appropriately set predicted feature images with each acquired image in the same manner, and repeats the process of correcting the predicted feature image in relation to each acquired image to thereby generate the predicted feature image. Converge, clarify features and classify.
[Selection] Figure 1
Description
本発明は検査すべき試料、とりわけ紙面に文字及び絵柄模様等が印刷された紙葉類の紙面を光学的に特性分析して特徴を抽出分類する方法に関する。 The present invention relates to a method for optically analyzing and extracting and classifying features of a sample to be inspected, particularly a paper surface of a paper sheet on which characters and design patterns are printed.
紙幣、有価証券、切手等、紙葉を媒体として交換価値を体現させたものにあっては、その真贋鑑別が常に大きな問題となり、真贋を鑑別するにあたっては、その紙葉類の特徴が何であるかを適正に把握しておく必要がある。 For banknotes, securities, stamps, and other items that demonstrate the value of exchange using paper as a medium, distinguishing authenticity has always been a major issue, and what is the characteristic of the paper sheet when distinguishing authenticity? It is necessary to properly grasp this.
近年ではカラーコピー機、カラープリンタ、スキャナ等の性能向上と価格低下が進み、紙葉類の偽造を誘発しやすくなっている。そのため、市販のカラーコピー用トナーやプリンタインクには含まれない物質、例えば蛍光物質その他の機能性材料を用いて、通常の照明条件下では、且つ肉眼では見えないマーキングを施すといったことも行われる。これらのマーキングは当然に紙葉類の特徴を構成する。 In recent years, color copiers, color printers, scanners, etc. have been improved in performance and reduced in price, and it has become easy to induce counterfeiting of paper sheets. For this reason, markings that are not included in commercially available color copying toners and printer inks, such as fluorescent materials and other functional materials, are performed under normal lighting conditions and invisible to the naked eye. . These markings naturally constitute the characteristics of paper sheets.
特許文献1に記載された紙葉類真偽識別装置では、被識別紙の特定部位に紫外線を照射し、この紫外線照射部位からの透過光または反射光を波長選択フィルタにかけて特定の波長帯域の光のみフォトセンサアレイに受光させ、フォトセンサアレイの光出力信号に基づき被識別紙の紙質の真偽を識別し、また、紫外線照射によって蛍光を発生する蛍光体の真偽を識別し、両識別結果がいずれも真のとき、被識別紙を真としている。 In the paper sheet authenticity identification device described in Patent Document 1, ultraviolet light is applied to a specific part of the paper to be identified, and transmitted light or reflected light from the ultraviolet light irradiation part is applied to a wavelength selection filter to emit light in a specific wavelength band. Only the photo sensor array receives light, identifies the authenticity of the paper quality of the paper to be identified based on the light output signal of the photo sensor array, identifies the authenticity of the fluorescent substance that generates fluorescence by ultraviolet irradiation, and both identification results Is true, the identified paper is true.
上記紙葉類真偽識別装置はフォトセンサの光出力信号により紙葉類に使われている紙が本物であるかどうかを識別する。ただしこの装置はすでに認知されている光学特性を確認するものであり、その紙の上の印刷図形までチェックするものではないため、紙葉類の真贋鑑別手法として万全であるとは言い難い。 The paper sheet authenticity discrimination device discriminates whether or not the paper used for the paper sheet is genuine by the light output signal of the photosensor. However, since this apparatus is for confirming the already recognized optical characteristics and not for checking the printed figure on the paper, it is difficult to say that it is a perfect method for authenticating paper sheets.
特許文献2に記載された書類検査装置では、波長の異なった少なくとも2つの光部分を書類の共通区域上に向け、反射光または透過光を直線状検出器で検出する。 In the document inspection apparatus described in Patent Document 2, at least two light portions having different wavelengths are directed on a common area of a document, and reflected light or transmitted light is detected by a linear detector.
上記書類検査装置は印刷図形を検査基準とすることができる。また複数個の検出器で反射光または透過光を検出し、検出器から来る信号を単独で、または適切な組合わせで評価するものであり、多面的な検査が可能である。しかしながら、複数個の検出器により得たデータをどのように関連づけて処理し、検査装置の機能を向上させるかについては、技術面での追求が十分になされているとは言い難い。 The document inspection apparatus can use a printed figure as an inspection standard. Further, reflected light or transmitted light is detected by a plurality of detectors, and signals coming from the detectors are evaluated alone or in an appropriate combination, and multifaceted inspection is possible. However, it is difficult to say that sufficient technical pursuit has been made as to how data obtained by a plurality of detectors are related and processed to improve the function of the inspection apparatus.
特許文献3は銀行券の特徴的な色調に基づいて光学的に銀行券を検査する装置を開示している。検査にあたっては、銀行券の特定表面を広域光源から出る光で照射する。その反射光を光学的な散乱機構、例えばガラスプリズムで様々な波長域に分光する。様々な波長域に存在する色の明度をいくつかの、関連する光電検出器で記録する。測定した信号を閾水準で評価し、測定値が許容範囲に収まっていればOK信号が得られる。 Patent Document 3 discloses an apparatus for optically inspecting a banknote based on a characteristic color tone of the banknote. In the inspection, a specific surface of the banknote is irradiated with light emitted from a wide area light source. The reflected light is dispersed into various wavelength ranges by an optical scattering mechanism, for example, a glass prism. The brightness of the colors present in the various wavelength ranges is recorded with several associated photoelectric detectors. The measured signal is evaluated at the threshold level, and if the measured value is within the allowable range, an OK signal is obtained.
上記装置の場合、予め予定した光電検出器で特定される波長しか検出できないので、光学特性が未知の紙葉類の分析には適さないものであった。また、検査されるエリアもスポットであるので、光学画像としての分析もできない。 In the case of the above-mentioned apparatus, only the wavelength specified by the photoelectric detector planned in advance can be detected, so that it is not suitable for analysis of paper sheets whose optical characteristics are unknown. Further, since the area to be inspected is also a spot, it cannot be analyzed as an optical image.
周知の分光光度計等は広波長域での光学特性を計測するが、計測エリアがスポットであり、紙面全域の特性検査は難しい。また、CCDカメラ等で紙面全域の光学特性を計測する装置も周知であるが、検索波長帯域が400〜1,000nmと狭く、撮像画像を多数枚得るのみである。これらでは各波長光に対応する多数枚の紙面光学特性画像からの試料の特徴抽出に膨大な労力と時間を要し、各々紙面画像情報が複雑で且つ投受光の細密多段階な検索条件での試料の特徴検出は難しく不完全なものとなっていた。
本発明は、試料の特徴を、それが未知の試料であっても自動的且つ的確に抽出することのできる特徴抽出方法を提供することを目的とする。 An object of the present invention is to provide a feature extraction method capable of automatically and accurately extracting a feature of a sample even if it is an unknown sample.
本発明の特徴抽出方法は、試料に紫外域から近赤外域にわたる波長域の光を、全波長域光又は互いに中心波長を異ならせた複数波長帯域光を検査光として選択的に順次照射し、該照射された各々の検査光に対して前記試料からの光を互いに中心波長が異なる所定波長帯域毎に順次撮像することによって複数の撮像画像を得て、これら撮像画像から前記試料の光学的な特徴を抽出するものであり、同類分類処理の指標データとして予測特徴画像を複数個設定する第1ステップと、前記複数の撮像画像の各々別に、前記複数個の予測特徴画像との近似度を比較しつつ最も近似する予測特徴画像を同類関係にあるとして当該撮像画像に近づくように順次修正する第2ステップと、前記予測特徴画像の同類撮像画像への修正を前回より小さくして前記第2ステップを繰り返し実施させることにより、各々の特徴画像を同類関係にある撮像画像の代表画像として次第に収斂させる第3ステップと、を含むものとした。 The feature extraction method of the present invention selectively irradiates a sample with light in a wavelength region ranging from the ultraviolet region to the near infrared region as a whole wavelength region light or multiple wavelength band light having different center wavelengths as inspection light. A plurality of captured images are obtained by sequentially capturing the light from the sample for each of the irradiated inspection lights for each predetermined wavelength band having a different center wavelength, and the optical image of the sample is obtained from these captured images. Compares the degree of approximation between the first step of setting a plurality of predicted feature images as index data for similar classification processing and the plurality of predicted feature images for each of the plurality of captured images. However, the second step of sequentially correcting the most similar predicted feature image to be similar to the captured image as having the similar relationship, and the correction of the predicted feature image to the similar captured image is made smaller than the previous time, and By repeatedly carrying out the two steps, and is intended to include a third step of gradually converge each feature image as a representative image of the captured image in a similar relationship, the.
この構成によると、試料に紫外域から近赤外域にわたる波長域の光を、全波長域光又は互いに中心波長の異なる所定波長帯域の光の検査光として選択的に順次照射し、該照射された各々の検査光に対して前記試料からの光を互いに中心波長の異なる所定波長帯域毎に順次撮像して複数の撮像画像を取得するものであるから、照射光の波長帯域(又は波長帯域の中心波長)と撮像光の波長帯域(又は波長帯域の中心波長)の双方を変化させつつ、あるいは一方の波長帯域(波長帯域の中心波長)を変えつつ撮像した複数個の撮像画像につき所定のルールに基づく演算を行って特徴を抽出し分類することができ、基となる光学特性としての画像数が多くてもその中から当該試料の特徴を自動的に絞り込むことができる。更には広い波長域にわたり多数の光学特性撮像画像を取得することとして、その試料の特徴を確実且つ正確に抽出分類できる。 According to this configuration, the sample is selectively irradiated with light in a wavelength region ranging from the ultraviolet region to the near infrared region as the entire wavelength region light or the inspection light of a predetermined wavelength band having a different central wavelength. For each inspection light, light from the sample is sequentially imaged for each predetermined wavelength band having a different center wavelength to obtain a plurality of captured images. Therefore, the wavelength band of the irradiation light (or the center of the wavelength band) Wavelength) and the wavelength band of the imaging light (or the center wavelength of the wavelength band), or a predetermined rule for a plurality of captured images captured while changing one of the wavelength bands (center wavelength of the wavelength band). Based on this, it is possible to extract and classify the features, and automatically narrow down the features of the sample from among the number of images as the base optical characteristics. Furthermore, by acquiring a large number of optical characteristic captured images over a wide wavelength range, the characteristics of the sample can be extracted and classified reliably and accurately.
そして同類分類処理の指標データとして予測特徴画像を複数個設定する第1ステップと、前記複数の撮像画像の各々別に、前記複数個の予測特徴画像との近似度を比較しつつ最も近似する予測特徴画像を同類関係にあるとして当該撮像画像に近づくように順次修正する第2ステップと、前記予測特徴画像の同類撮像画像への修正を前回より小さくして前記第2ステップを繰り返し実施させることにより、各々の特徴画像を同類関係にある撮像画像の代表画像として次第に収斂させる第3ステップと、を含むから、各々の予測特徴画像を次第に各々が類似する撮像画像の各グループ毎に収斂させ、特徴を明確化することができる。これにより、基となる撮像画像数が多くてもこれらを効率良く同類分類してこれらの代表画像を得ることができ、更には分類の指標すなわち特徴を各々グループ毎の中心的な画像として、より代表的な画像を浮かび上がらせることができる。 The first step of setting a plurality of predicted feature images as index data for the similar classification process and the predicted feature that is most approximated by comparing the degree of approximation with the plurality of predicted feature images for each of the plurality of captured images A second step of sequentially correcting the images so as to be close to the captured image as being in a similar relationship, and a correction to the similar captured image of the predicted feature image is made smaller than the previous time, and the second step is repeatedly performed, A third step of gradually converging each feature image as a representative image of a similar captured image, so that each predicted feature image is gradually converged for each group of similar captured images, It can be clarified. As a result, even if there are a large number of basic captured images, they can be efficiently classified into similar categories to obtain these representative images. A representative image can be revealed.
また本発明では、上記構成の特徴抽出方法において、前記複数の撮像画像のうちで収斂された前記予測特徴画像のいずれに対しても所定の近似範囲に含まれない撮像画像があった場合、これらの撮像画像を用いて新たな予測特徴画像を作成することとした。 According to the present invention, in the feature extraction method configured as described above, if there are captured images that are not included in a predetermined approximate range for any of the predicted feature images converged among the plurality of captured images, A new predicted feature image is created using the captured images.
この構成によると、特徴のある画像が他の予測特徴画像に同類仕分けされてしまうということがなくなり、またこれら画像が無視されることもなく適正に特徴が把握分類される。 According to this configuration, a characteristic image is not classified in the same manner as another predicted characteristic image, and the characteristic is properly grasped and classified without being ignored.
また本発明では、上記構成の特徴抽出方法において、前記複数の撮像画像のいずれとも同類関係にない前記予測特徴画像が生じたときは、この予測特徴画像を削除することとした。これにより、無意味なデータにメモリが費消されることがなくなり、また当初の予測特徴画像が過多設定の場合にも適正に特徴の抽出分類が行える。 Further, according to the present invention, in the feature extraction method having the above-described configuration, when the predicted feature image that is not similar to any of the plurality of captured images is generated, the predicted feature image is deleted. As a result, memory is not consumed for meaningless data, and feature extraction and classification can be performed appropriately even when the initial predicted feature image is excessively set.
また本発明では、収斂された予測特徴画像相互間の距離が所定の値内の場合で且つ、当該予測特徴画像の各々に同類対応する撮像画像相互間の最大距離が別途設定した値内の場合、これらの予測特徴画像をこれらの平均値に統合更新することとした。これにより、予め定められた近似値内に複数の予測特徴画像グループが存在した場合、それらの平均値データの単一の予測特徴画像グループとして統合されるので、必要以上に多くの予測特徴画像グループに細分されることがなくなり、処理すべき撮像画像が所定の類似度で各々の代表画像別にグループ化され且つ特徴が同類分類される。 In the present invention, the distance between the converged predicted feature images is within a predetermined value, and the maximum distance between the captured images corresponding to each of the predicted feature images is within a separately set value. These predicted feature images are integrated and updated to their average values. As a result, when a plurality of predicted feature image groups exist within a predetermined approximate value, since they are integrated as a single predicted feature image group of the average value data, more predicted feature image groups than necessary The captured images to be processed are grouped for each representative image with a predetermined similarity, and the features are classified into the same category.
本発明によると、基となる撮像画像数が多くてもこれらを効率良く同類分類してこれらの代表画像を得ることができる。
According to the present invention, these representative images can be obtained by classifying them efficiently even if there are a large number of underlying captured images.
以下図に基づき本発明の実施形態を説明する。最初に、本発明特徴抽出方法を遂行する特徴抽出装置の構造を図1〜7により例示して説明する。 Embodiments of the present invention will be described below with reference to the drawings. First, the structure of a feature extraction apparatus that performs the feature extraction method of the present invention will be described with reference to FIGS.
特徴抽出装置1は本体部2と演算装置3を備える。本体部2はハウジング10を有し、その内部の構成要素はブロック構成で見ると図7に示すように光学セクション11と制御セクション12に区分される。図1〜6には専ら光学セクション11に含まれる構成要素を図示する。 The feature extraction device 1 includes a main body 2 and an arithmetic device 3. The main body 2 has a housing 10, and its internal components are divided into an optical section 11 and a control section 12 as shown in FIG. 1 to 6 show the components included exclusively in the optical section 11.
本体部2のハウジング10は複数個のキャスタ21により床面上に移動可能に支持されている。ハウジング10の一部には扉22があり、この扉22を開けて試料ホルダ23を出し入れする。扉22を閉めればハウジング10の内部は暗室状態になる。試料ホルダ23は検査すべき紙葉類の試料をその被検査面がほぼ垂直になるように保持する。この被検査面に検査光を照射し、反射光(蛍光物質の励起光があれば、その励起光も含む)を撮像する。続いて検査光発生装置30と撮像装置50の構成を説明する。 The housing 10 of the main body 2 is supported by a plurality of casters 21 so as to be movable on the floor surface. A part of the housing 10 has a door 22, and the sample holder 23 is taken in and out by opening the door 22. If the door 22 is closed, the inside of the housing 10 is in a dark room state. The sample holder 23 holds a paper sheet sample to be inspected so that the surface to be inspected is substantially vertical. The surface to be inspected is irradiated with inspection light, and reflected light (including excitation light of the fluorescent material, if any) is imaged. Next, the configuration of the inspection light generator 30 and the imaging device 50 will be described.
検査光発生装置30の光源部31は250〜2,000nmの波長域の光を発する。このような広い帯域の光を単一のランプで発生させることはできないので、キセノンランプ32とハロゲンランプ33の2種類のランプを使用する(図4、5参照)。キセノンランプ32は250〜380nmの検査光を得るのに用い、ハロゲンランプ33は381〜2,000nmの検査光を得るのに用いる。 The light source unit 31 of the inspection light generator 30 emits light in the wavelength range of 250 to 2,000 nm. Since such a wide band of light cannot be generated by a single lamp, two types of lamps, a xenon lamp 32 and a halogen lamp 33 are used (see FIGS. 4 and 5). The xenon lamp 32 is used for obtaining inspection light of 250 to 380 nm, and the halogen lamp 33 is used for obtaining inspection light of 381 to 2,000 nm.
キセノンランプ32とハロゲンランプ33はランプハウス34の中に向かい合わせに配置されている。電源投入後ランプが所定のスペクトルの光を放つようになるまでには時間がかかるので、ランプの切り替えの度にランプを点灯したり消灯したりするのでなく、装置稼働中は両ランプとも連続点灯させておき、必要な側の光をその都度可動ミラーで反射させて選択的に取り出すようにしている。35がその可動ミラーであって、反射面をキセノンランプ32に向け45゜の角度に置く図4の位置と、反射面をハロゲンランプ33に向け45゜の角度に置く図5の位置とに、図示しないモータ又はソレノイドにより切り替えられる。可動ミラー35に当たった光は直角に向きを変え、ランプハウス34の一側面の出射窓36を通ってレンズハウス37に入る。 The xenon lamp 32 and the halogen lamp 33 are disposed facing each other in the lamp house 34. Since it takes time for the lamp to emit light of the specified spectrum after the power is turned on, both lamps are lit continuously while the device is in operation, instead of turning the lamp on and off each time the lamp is switched. In addition, the light on the required side is selectively reflected by the movable mirror each time. Reference numeral 35 denotes the movable mirror, and the reflection surface is directed to the xenon lamp 32 at a 45 ° angle, and the reflection surface is directed to the halogen lamp 33 at a 45 ° angle in FIG. It is switched by a motor or solenoid (not shown). The light hitting the movable mirror 35 turns at a right angle and enters the lens house 37 through the exit window 36 on one side of the lamp house 34.
レンズハウス37の中のレンズ群により発散角度を整えられた光は分光器38に入る。分光器38は収差補正型の零分散ダブルモノクロメータであって、駆動波長域は250〜2,000nm、半値幅は30nm又は60nm、分解能は15〜30nmに設定されるが、必要時には「光源の全波長域を含む白色光」に設定することもできる。分光器38から出射される所定の波長帯域の光が検査光となる。 The light whose divergence angle is adjusted by the lens group in the lens house 37 enters the spectroscope 38. The spectroscope 38 is an aberration-correction type zero dispersion double monochromator. The drive wavelength range is set to 250 to 2,000 nm, the half-value width is set to 30 nm or 60 nm, and the resolution is set to 15 to 30 nm. It can also be set to “white light including the entire wavelength range”. Light of a predetermined wavelength band emitted from the spectroscope 38 becomes inspection light.
分光器38の出射窓にはレンズハウス39が連結される。レンズハウス39の中に配置されるレンズ(図示せず)は検査光の発散角度を調整するためのものであって、試料ホルダ23において180×180mmのエリアを照射するときと、同じく50×50mmのエリアを照射するときとで発散角度を切り替える。 A lens house 39 is connected to the exit window of the spectroscope 38. A lens (not shown) disposed in the lens house 39 is for adjusting the divergence angle of the inspection light, and is similarly 50 × 50 mm when irradiating an area of 180 × 180 mm on the sample holder 23. The divergence angle is switched between when irradiating the area.
レンズハウス39を出た検査光は固定ミラー40、41で反射を繰り返しながら空間内を進み、試料ホルダ23に保持された試料を照射する。試料の被検査面で反射・吸収された光が撮像装置50に入る。なお試料ホルダ23は、試料の照射角と反射角が画像歪をできるだけ小さくする角度となるように角度設定されている。 The inspection light exiting the lens house 39 travels through the space while being repeatedly reflected by the fixed mirrors 40 and 41, and irradiates the sample held by the sample holder 23. Light reflected and absorbed by the surface to be inspected of the sample enters the imaging device 50. The sample holder 23 is set so that the irradiation angle and the reflection angle of the sample become an angle that minimizes image distortion as much as possible.
前述のとおり検査光の帯域は250〜2,000nmにわたるが、ここまで広い感受域を備えた撮像手段は存在しないので、2種類のカメラをもって撮像装置50を構成する。その一方はCCDカメラ51であり、図2、3に見られるように試料ホルダ23の真正面に配置される。他方は赤外線カメラ52で、試料ホルダ23の真正面から水平方向にずれた位置に、CCDカメラ51と平行に並ぶ形で配置される。 As described above, the inspection light band ranges from 250 to 2,000 nm. However, there is no imaging means having a wide sensing area, so the imaging apparatus 50 is configured with two types of cameras. One of them is a CCD camera 51, which is arranged in front of the sample holder 23 as seen in FIGS. The other is an infrared camera 52, which is arranged in parallel with the CCD camera 51 at a position shifted in the horizontal direction from the front in front of the sample holder 23.
シリコン等からなる撮像素子を有するCCDカメラ51は波長250〜1,000nmの反射光を撮像するのに用いる。白金インジウム又はインジウムアンチモン等からなる撮像素子を有する赤外線カメラ52は1,000〜2,000nmの反射光を撮像するのに用いる。これらのカメラは約65,000(≒256×256)ピクセルから約100万(≒1024×1024)ピクセル、あるいはそれ以上の画素数を有し、分析すべき試料面を16384階調から65536階調以上の濃淡細密画像として撮像し入力する。 A CCD camera 51 having an imaging element made of silicon or the like is used for imaging reflected light having a wavelength of 250 to 1,000 nm. An infrared camera 52 having an imaging element made of platinum indium, indium antimony, or the like is used for imaging reflected light of 1,000 to 2,000 nm. These cameras have about 65,000 (≈256 × 256) pixels to about 1 million (≈1024 × 1024) pixels or more, and the sample surface to be analyzed is 16384 to 65536 gradations. The image is captured and input as the above-described grayscale fine image.
カメラの切り替えは図2、3に示す可動ミラー53により行う。可動ミラー53は図示しない駆動機構により水平方向に移動するものであり、図2の位置にくると試料ホルダ23からの反射光は真っ直ぐCCDカメラ51に届く。可動ミラー53が図3の位置にくると反射光は可動ミラー53により直角に曲げられ、固定ミラー54でもう一度直角に曲げられて赤外線カメラ52に届く。 The camera is switched by the movable mirror 53 shown in FIGS. The movable mirror 53 is moved in the horizontal direction by a driving mechanism (not shown). When the movable mirror 53 reaches the position shown in FIG. 2, the reflected light from the sample holder 23 reaches the CCD camera 51 straight. When the movable mirror 53 reaches the position shown in FIG. 3, the reflected light is bent at a right angle by the movable mirror 53 and is bent again at a right angle by the fixed mirror 54 and reaches the infrared camera 52.
55a、55b、56a、56bは図示しない駆動機構により試料ホルダ23とCCDカメラ51、及び固定ミラー54と赤外線カメラ52との間の各光路に出没する収束レンズである。収束レンズ55a、56aは照射エリアが180×180mmであった場合の反射光を収束するときに用い、収束レンズ55b、56bは照射エリアが50×50mmであった場合の反射光を収束するときに用いる。 Reference numerals 55a, 55b, 56a and 56b denote converging lenses which appear and disappear in respective optical paths between the sample holder 23 and the CCD camera 51, and the fixed mirror 54 and the infrared camera 52 by a driving mechanism (not shown). The converging lenses 55a and 56a are used when converging the reflected light when the irradiation area is 180 × 180 mm, and the converging lenses 55b and 56b are used when converging the reflected light when the irradiation area is 50 × 50 mm. Use.
なお図1、2、3において収束レンズ55aと55bの組み合わせが同時に、又は収束レンズ56aと56bの組み合わせが同時に、光路中に存在するように描かれているが、これは単に図示の都合によるものであって、実際には各々組み合わせの一方のみが光路中に進出し、他の一方は光路外に退避している。 In FIGS. 1, 2, and 3, the converging lenses 55a and 55b are shown in the optical path so that the combination of the converging lenses 55a and 55b or the converging lenses 56a and 56b exist at the same time. Actually, only one of the combinations advances into the optical path, and the other one is retracted out of the optical path.
収束レンズ55a、56aを使用したときと収束レンズ55b、56bを使用したときとでCCD又は赤外線撮像素子上の受光面積及び/又は結像位置が若干変化するため、図示しない駆動機構によりこれらカメラ51、52を光軸に沿って移動させ、前記変化に対応した補償を行うようにしている。なおカメラを移動させる代わりにズームレンズ機構を使用してもよい。 Since the light receiving area and / or image forming position on the CCD or infrared imaging device slightly changes between when the converging lenses 55a and 56a are used and when the converging lenses 55b and 56b are used, these cameras 51 are driven by a driving mechanism (not shown). , 52 are moved along the optical axis to compensate for the change. A zoom lens mechanism may be used instead of moving the camera.
撮像する光を所定の波長域に絞り込むため、CCDカメラ51には分光器(紫外可視イメージ分光器)57が組み合わせられ、赤外線カメラ52にはバンドパスフィルタ(近赤外バンドパスフィルタ)58が組み合わせられる。分光器57は半値幅30nm、分解能15nmである。バンドパスフィルタ58は半値幅30〜60nm、分解能30nmである。なお、これら分光器57及びバンドパスフィルタ58は光源側の分光器38と同様に全波長域光を選択する機能も有する。 In order to narrow down the imaged light to a predetermined wavelength range, the CCD camera 51 is combined with a spectroscope (ultraviolet visible image spectroscope) 57, and the infrared camera 52 is combined with a bandpass filter (near infrared bandpass filter) 58. It is done. The spectroscope 57 has a half width of 30 nm and a resolution of 15 nm. The band pass filter 58 has a half width of 30 to 60 nm and a resolution of 30 nm. The spectroscope 57 and the band-pass filter 58 also have a function of selecting light in the entire wavelength range in the same manner as the spectroscope 38 on the light source side.
図6にバンドパスフィルタ58の構造例を示す。これは、各々図示しないモータによりインデックス回転せしめられる3台のタレット59a、59b、59cを組み合わせたものである。各々のタレット59a、59b、59cは13枚ずつのフィルタホルダ60を放射状に保持し、各1枚のフィルタホルダ60を光路に一致させる。図6においてハッチングを施した円(円はフィルタを表す)が光路の位置を示す。 FIG. 6 shows a structural example of the band pass filter 58. This is a combination of three turrets 59a, 59b and 59c, each of which is index rotated by a motor (not shown). Each turret 59a, 59b, 59c holds 13 filter holders 60 radially, and each one filter holder 60 is made to coincide with the optical path. In FIG. 6, a hatched circle (circle represents a filter) indicates the position of the optical path.
タレット59a、59b、59cの保持する13枚ずつのフィルタホルダ60のうち、12枚には通過波長の帯域を少しずつ異ならせたフィルタ61を取り付け、残り1枚は全波長域用として素通しとする。タレット59b及び59cで素通しのフィルタホルダ60を選択すれば、タレット59aのフィルタ12種を単独使用できる。タレット59a及び59cで素通しのフィルタホルダ60を選択すれば、タレット59bのフィルタ12種を同様に単独使用できる。タレット59a及び59bで素通しのフィルタホルダ60を選択すれば、タレット59cのフィルタ12種を同様に単独使用できる。またタレット59a、59b、59cのすべてで素通しのフィルタホルダ60を選択すれば全波長域光が選択される。 Of the 13 filter holders 60 held by the turrets 59a, 59b, and 59c, the filter 61 having a slightly different pass wavelength band is attached to 12 of the filter holders 60, and the remaining one is transparent for the entire wavelength range. . If the filter holder 60 through which the turrets 59b and 59c pass is selected, the 12 types of filters of the turret 59a can be used alone. If the transparent filter holder 60 is selected by the turrets 59a and 59c, the 12 types of filters of the turret 59b can be used alone in the same manner. If the transparent filter holder 60 is selected with the turrets 59a and 59b, the 12 types of filters of the turret 59c can be used alone as well. Further, if the filter holder 60 that is transparent in all of the turrets 59a, 59b, and 59c is selected, light in the entire wavelength band is selected.
次に図7に基づき特徴抽出装置1のブロック構成を説明する。 Next, a block configuration of the feature extraction apparatus 1 will be described with reference to FIG.
本体部10の制御セクション12はランプ制御部70、ミラー制御部71、レンズ制御部72、照射側分光器制御部73、撮像側分光器制御部74、及びカメラ制御部75を備える。ランプ制御部70はキセノンランプ32とハロゲンランプ33の点消灯を制御する。ミラー制御部71は可動ミラー35、53の動作を制御する。レンズ制御部72はレンズハウス39の中のレンズと収束レンズ55a、55b、56a、56bの動作を制御する。照射側分光器制御部73は分光器38の動作を制御する。撮像側分光器制御部74は分光器57とバンドパスフィルタ58の動作を制御する。カメラ制御部75はCCDカメラ51と赤外線カメラ52の露出時間その他の撮影条件の設定及び撮像を制御する。 The control section 12 of the main body 10 includes a lamp controller 70, a mirror controller 71, a lens controller 72, an irradiation side spectrometer controller 73, an imaging side spectrometer controller 74, and a camera controller 75. The lamp controller 70 controls turning on / off of the xenon lamp 32 and the halogen lamp 33. The mirror control unit 71 controls the operation of the movable mirrors 35 and 53. The lens control unit 72 controls the operation of the lenses in the lens house 39 and the converging lenses 55a, 55b, 56a, and 56b. The irradiation side spectroscope control unit 73 controls the operation of the spectroscope 38. The imaging side spectroscope control unit 74 controls the operation of the spectroscope 57 and the band pass filter 58. The camera control unit 75 controls the exposure time and other shooting condition settings and imaging of the CCD camera 51 and the infrared camera 52.
演算装置3のブロック構成は次のようになっている。80は中央処理部で、マイクロプロセッサと記憶装置を備えている。81は操作部で、これはキーボード等の入力手段、及び演算装置3の本体筐体に設けられた各種スイッチにより構成される。82は表示部で、CRTや液晶等のモニタと、演算装置3の本体筐体に設けられた発光ダイオード等の表示手段により構成される。演算装置3と本体部2とは図示しないケーブルで接続され、互いに信号を交換する。 The block configuration of the arithmetic device 3 is as follows. A central processing unit 80 includes a microprocessor and a storage device. Reference numeral 81 denotes an operation unit, which includes input means such as a keyboard and various switches provided on the main body of the arithmetic device 3. A display unit 82 includes a monitor such as a CRT or a liquid crystal and a display unit such as a light emitting diode provided in the main body of the arithmetic unit 3. The arithmetic device 3 and the main body 2 are connected by a cable (not shown) and exchange signals with each other.
83〜88は中央処理部80のシステムリソースをそのまま利用して、あるいは中央処理部80のシステムリソースにハードウェア要素を付加して構成されるデータ処理ブロック群である。83はA/D変換部で、これは撮像装置50から伝達された画像のアナログデータをデジタルデータに変換するものである。84はCCDカメラ51及び赤外線カメラ52を適正に制御するとともにCCDカメラ51で得た画像データと赤外線カメラ52で得た画像データを一元化し、合わせて別途選択設定される必要サイズの入力画像として切り出すとともに、画像サイズを圧縮する補正演算部である。85は補正演算部84で演算を行うための演算係数等のパラメータを記憶する補正データ記憶部である。86は上記必要サイズに切り出された画像、圧縮された画像、及び画像の特徴抽出のために加工演算される一時的な中間画像を保持するイメージバッファ部である。87は特徴の抽出を行うための画像解析部、88は特徴が明確であるとして選択された代表画像及び関連データを格納する代表データ格納部である。 Reference numerals 83 to 88 denote data processing block groups configured by using system resources of the central processing unit 80 as they are or adding hardware elements to the system resources of the central processing unit 80. Reference numeral 83 denotes an A / D converter, which converts analog data of an image transmitted from the imaging device 50 into digital data. 84 controls the CCD camera 51 and the infrared camera 52 appropriately, unifies the image data obtained by the CCD camera 51 and the image data obtained by the infrared camera 52, and cuts out as an input image of a necessary size that is separately selected and set. At the same time, the correction calculation unit compresses the image size. A correction data storage unit 85 stores parameters such as calculation coefficients for the correction calculation unit 84 to perform calculation. Reference numeral 86 denotes an image buffer unit that holds an image cut out to the required size, a compressed image, and a temporary intermediate image that is processed for image feature extraction. Reference numeral 87 denotes an image analysis unit for extracting features, and reference numeral 88 denotes a representative data storage unit that stores a representative image and related data selected as having clear features.
次に特徴抽出装置1の操作につき説明する。まず本体部2の扉22を開けて試料ホルダ23を取り出し、検査すべき試料を取り付ける。試料を取り付けた試料ホルダ23をハウジング10内の所定の位置にセットし、扉22を閉める。それから、試料を検査光で照射し、そこから反射した光を撮像装置50で撮像する。 Next, the operation of the feature extraction apparatus 1 will be described. First, the door 22 of the main body 2 is opened, the sample holder 23 is taken out, and a sample to be inspected is attached. The sample holder 23 to which the sample is attached is set at a predetermined position in the housing 10 and the door 22 is closed. Then, the sample is irradiated with the inspection light, and the light reflected from the sample is imaged by the imaging device 50.
検査光発生装置30は250〜2,000nmという、紫外域から近赤外域にわたる広い波長域の光を、全波長域光(白色光)又は所定ピッチで中心波長をずらしつつ所定帯域の検査光として選択的に順次発生する。試料面は検査光に応じた見え方をする。例えば紙を構成する物質の中に、あるいは印刷インクの中に蛍光物質が含まれていた場合、その蛍光物質は特定波長の検査光に反応して励起光を発する。この励起光と反射光を合わせた光画像を分光器57又はバンドパスフィルタ58に通し、特定波長光の濃淡画像としてCCDカメラ51又は赤外線カメラ52で撮像する。 The inspection light generator 30 uses light in a wide wavelength range from 250 to 2,000 nm ranging from the ultraviolet region to the near infrared region as all-wavelength region light (white light) or as inspection light in a predetermined band while shifting the center wavelength at a predetermined pitch. Selectively occurs sequentially. The sample surface looks according to the inspection light. For example, when a fluorescent material is contained in the material constituting the paper or in the printing ink, the fluorescent material emits excitation light in response to the inspection light having a specific wavelength. The light image obtained by combining the excitation light and the reflected light is passed through the spectroscope 57 or the band pass filter 58, and is picked up by the CCD camera 51 or the infrared camera 52 as a grayscale image of specific wavelength light.
図8は照射する検査光の波長域をずらしつつカメラ側の分光器及びバンドパスフィルタを素通しで、すなわち全波長域光として撮像したときの紙葉類の画像の変遷を例示する。(a)では紙葉類本来のパターンは全く見えず、蛍光物質の励起によるパターンが右下に見えているのみである。(b)→(c)→(d)→(e)→(f)と検査光の波長が長くなるにつれ、紙葉類本来の目視可視光パターンが徐々に見え出し、励起光パターンは消える。(g)で紙葉類本来のパターンが最も鮮明で明るい像を結ぶ。以後、(h)→(i)→(j)→(k)と検査光の波長が長くなるにつれ、画像は鮮明さと明るさを失う。(l)では近赤外線にのみ感応するパターンが見えるだけとなる。 FIG. 8 illustrates the transition of the image of the paper sheet when the spectroscope and the bandpass filter on the camera side are passed through while shifting the wavelength range of the inspection light to be irradiated, that is, the image is captured as light in the entire wavelength range. In (a), the original pattern of the paper sheet is not seen at all, and the pattern due to the excitation of the fluorescent material is only visible in the lower right. As the wavelength of the inspection light becomes longer as (b) → (c) → (d) → (e) → (f), the original visual visible light pattern of the paper sheet gradually appears and the excitation light pattern disappears. In (g), the original pattern of the paper sheet forms the clearest and brightest image. Thereafter, as the wavelength of the inspection light increases from (h) → (i) → (j) → (k), the image loses clarity and brightness. In (l), only a pattern sensitive only to the near infrared is visible.
なお、図8はあくまでも説明用に単純化した作図例であって、現実の画像がこれと同じような変遷をたどる訳ではない。実際の紙葉類を250nmから2,000nmの波長にわたり撮像した画像群はこれよりはるかに複雑な変化を示す。 Note that FIG. 8 is merely a drawing example simplified for explanation, and an actual image does not follow the same transition. An image group obtained by imaging an actual paper sheet over a wavelength range of 250 nm to 2,000 nm shows much more complicated changes.
前述のとおり、検査光発生装置30は検査光として段階的に波長が異なり且つ帯域の狭い複数種の光又は全波長域光(白色光)を照射する。検査光の中心波長を250〜2,000nmの間に86段階(その内1段階は全波長域光)設定し、撮像側でも分光器57とバンドパスフィルタ58とを通算して86段階(その内1段階は全波長域光)の通過波長帯域が設定されるものとすると、86×86=7,396通りの画像が撮像されることになる。 As described above, the inspection light generation device 30 irradiates a plurality of types of light having different wavelengths in a stepwise manner and a narrow band as the inspection light, or light of all wavelengths (white light). The central wavelength of the inspection light is set to 86 steps between 250 and 2,000 nm (one of which is light in the entire wavelength range). Assuming that the pass wavelength band of all of the wavelengths is set, 86 × 86 = 7,396 images are captured.
CCDカメラ51と赤外線カメラ52はそれぞれ固有の光感受特性を有する。それを観念的に示したのが図9である。両カメラの撮像可能波長帯域は1,000nm近辺で重複し、その中の1,000nmを切り替え点として両カメラを切り替え使用する。ところがそのままでは切り替え点において、画像の明るさと濃度勾配は、CCDカメラ51で撮像した画像と赤外線カメラ52で撮像した画像とでは全く異なったものとなる。このままでは同一条件の画像データに2つの種類があるということになり、画像処理ソフトウェアとデータ蓄積部が二元化し、演算装置3のシステムリソースを余分に費消する。 The CCD camera 51 and the infrared camera 52 have their own light sensitivity characteristics. FIG. 9 conceptually shows this. The imageable wavelength bands of both cameras overlap in the vicinity of 1,000 nm, and the two cameras are switched and used with the switching point being 1,000 nm. However, at the switching point as it is, the image brightness and the density gradient are completely different between the image captured by the CCD camera 51 and the image captured by the infrared camera 52. If this is the case, there are two types of image data under the same conditions, and the image processing software and the data storage unit are dualized, and the system resources of the arithmetic device 3 are consumed extra.
そこで、切り替え点におけるCCDカメラ51と赤外線カメラ52の撮像画像の近似度が所定レベル以上になるよう、すなわち、あたかも単一のカメラをもって切り替え点をまたぐ撮像が行われたかのように一方又は双方のカメラを補正する。具体的にはカメラの露光時間を調整して画像の明るさを補正し、また感度とゲインを調整して濃度勾配を補正する。明るさと濃度勾配は一方だけ補正してもよく、両方補正してもよい。切り替え点を離れても撮像特性はフラットな方が望ましいので、各波長レベルで補正を行う。ここで行う補正を観念的に示したのが図10である。 Therefore, one or both cameras are set so that the degree of approximation of the captured images of the CCD camera 51 and the infrared camera 52 at the switching point is equal to or higher than a predetermined level, that is, as if the single camera is picked up across the switching point. Correct. Specifically, the brightness of the image is corrected by adjusting the exposure time of the camera, and the density gradient is corrected by adjusting the sensitivity and gain. Only one or both of the brightness and the density gradient may be corrected. Since it is desirable that the imaging characteristics be flat even if the switching point is separated, correction is performed at each wavelength level. FIG. 10 conceptually shows the correction performed here.
画像の明るさや濃度勾配を補正するには、撮像面の一部に予め明るい方の基準点と暗い方の基準点を定め、両方のカメラの読み取り値が明るい方は明るい方、暗い方は暗い方で同一レベルになるように、また必要な明暗域(ダイナミックレンジ)を演算用の256階調に補正する必要がある。基準点を定めるにあたっては、次の2手法のうちいずれかを用いる。 To correct the brightness and density gradient of the image, a bright reference point and a dark reference point are set in advance on a part of the imaging surface, and the brighter reading values of both cameras are brighter and the darker one is darker. On the other hand, it is necessary to correct the necessary light and dark area (dynamic range) to 256 gradations for calculation so as to be the same level. In determining the reference point, one of the following two methods is used.
図11に示す手法では、試料の画像自体の中に基準点を設定する。90が試料の画像であって、その中の明るい部分と暗い部分とにそれぞれ基準点91、92を設定する。CCDカメラ51で撮像した画像の基準点91、92と赤外線カメラ52で撮像した画像の基準点91、92とを比較した場合、双方の明るさ及び濃度勾配が所定レベル以上の近似度となるようにカメラ制御値の補正を行う。 In the method shown in FIG. 11, a reference point is set in the sample image itself. Reference numeral 90 is an image of the sample, and reference points 91 and 92 are set in a bright part and a dark part, respectively. When the reference points 91 and 92 of the image captured by the CCD camera 51 and the reference points 91 and 92 of the image captured by the infrared camera 52 are compared, the brightness and density gradient of both images are close to a predetermined level or higher. The camera control value is corrected.
図12に示す手法では装置の試料ホルダ23に配置された明暗基準プレートを用いる。すなわち明るい方の基準プレート93と暗い方の基準プレート94が撮像エリアにあり且つ紙葉類の試料によって覆い隠されない場所に取り付けられており、試料の画像とともに基準プレート93、94の画像も取り込まれる。この基準プレート93、94の画像値に基づき上記と同様にカメラ制御値の補正を行う。 In the method shown in FIG. 12, a light / dark reference plate arranged on the sample holder 23 of the apparatus is used. That is, the brighter reference plate 93 and the darker reference plate 94 are mounted in a place where they are in the imaging area and are not covered by the paper sheet sample, and the images of the reference plates 93 and 94 are also captured together with the sample image. . Based on the image values of the reference plates 93 and 94, the camera control value is corrected in the same manner as described above.
光蓄積時間調整はいわゆる時間可変のシャッター機能を備えたCCDを利用することにより実現できる。また、CCDの前に硝子板表面に遷移金属酸化物等(IrOx、Ta2O5・WO3等)の膜を形成した物性素子を置き、この物性素子に電圧を印加することにより膜の光透過率又は光透過量を調整するようにしてもよい。この調整に当たっては、予め撮像波長毎に使用する印加電圧或いは、シャッター開時間の設定テーブルを用意しておく。 The light accumulation time adjustment can be realized by using a CCD having a so-called variable time shutter function. In addition, a physical element in which a film of transition metal oxide (IrOx, Ta 2 O 5 , WO 3 etc.) is formed on the glass plate surface is placed in front of the CCD, and a voltage is applied to the physical element to apply the light to the film. The transmittance or light transmission amount may be adjusted. For this adjustment, a setting table of applied voltage or shutter opening time used for each imaging wavelength is prepared in advance.
このようにカメラ制御値の補正を行うことにより、画像処理ソフトウェアとデータ蓄積部を一元化し、システムリソースの節約と処理のスピードアップを図ることができる。また、必要に応じて明るさ、及び/又は濃度勾配を演算処理で更に別精度に追加補正する場合にも、元の撮像画像同士が近似しているため正確な演算処理が可能となる。補正演算を行うための演算係数等のパラメータは補正データ記憶部85に記憶させておく。 By correcting the camera control value in this way, the image processing software and the data storage unit can be unified, and system resources can be saved and the processing speed can be increased. In addition, when the brightness and / or the density gradient are additionally corrected with different accuracy as required, accurate calculation processing is possible because the original captured images are approximated. Parameters such as calculation coefficients for performing the correction calculation are stored in the correction data storage unit 85.
さて、特徴抽出装置1により撮像波長帯域の異なる多数の画像を取得することが可能であるが、例えば各ピクセルが数万濃淡階調で約100万ピクセル構成の各々細密画像データ全てを当該紙葉類の特徴画像として扱うと膨大なメモリが必要となるうえ、後で同種の紙葉類の特徴抽出を行うに際してもこのように沢山のデータを特徴として格納していたのでは照合に時間がかかりすぎる。 Now, it is possible to acquire a large number of images with different imaging wavelength bands by the feature extraction apparatus 1. For example, all the minute image data in which each pixel is composed of about tens of thousands of shades and about 1 million pixels are stored in the paper sheet. When it is handled as a feature image of a kind, a large amount of memory is required, and it takes time to collate if a lot of data is stored as a feature when extracting features of the same kind of paper later. Too much.
また、同一種の試料同士であっても位置ずれやかすれ等で全く同じ印刷状態であるとは限らないし、使用すれば色褪せや皮脂等の汚れ成分の付着が発生して、撮像した画像に相違が生じるということが十分にあり得、同一種の試料でも偽造券として排除することにもなりかねない。従って、特別に微細な高精度の特徴検索以外では、抽出すべき特徴は細密微細な光学的特性を保持しつつもある程度大ぐくりなものに画像サイズ/又は濃淡階調度を圧縮して許容範囲を持たせたほうが良い。 In addition, even if the same type of sample is used, it is not always the same printed state due to misalignment or fading, and if used, dirt components such as fading and sebum will occur, resulting in differences in the captured images. Can occur, and even samples of the same type can be rejected as counterfeit tickets. Therefore, except for extremely fine high-accuracy feature searches, the features to be extracted are compressed to a certain extent, while maintaining the fine and fine optical characteristics, and the allowable range by compressing the image size and / or the gradation level. It is better to have
そこで演算装置3は、イメージバッファ部86に入力された多数の必要なサイズに切り出された切り出し画像及び/又は、圧縮画像につき所定のルールに従い、特徴抽出に基づく同類分類演算を行い、当該紙葉類の特徴を特に明確に現している画像を代表データとして代表データ格納部88に格納する。以下、自動的に特徴を抽出する演算方法につき説明する。 Therefore, the arithmetic device 3 performs a similar classification operation based on feature extraction according to a predetermined rule for each of the cut image and / or the compressed image cut into a plurality of necessary sizes input to the image buffer unit 86, and the paper sheet. An image that clearly shows the characteristics of the class is stored in the representative data storage unit 88 as representative data. Hereinafter, a calculation method for automatically extracting features will be described.
紙葉類の特徴抽出及び同類分類に関する第1の方法は分類すべき画像間の差分を用いるものである。図13に差分による分析の概念を示す。すなわち、ある画像と他の画像との間のデータの差異に着目する。第1の画像が「ABCDEF」のデータを持ち、第2の画像が「ABDEF」のデータしか持っていないとすれば、両者の差分は「C」となる。この差分「C」を材料として特徴の分析を行うものである。 A first method relating to feature extraction and similar classification of paper sheets uses a difference between images to be classified. FIG. 13 shows the concept of analysis by difference. That is, pay attention to the difference in data between one image and another image. If the first image has “ABCDEF” data and the second image has only “ABDEF” data, the difference between them is “C”. Characteristic analysis is performed using the difference “C” as a material.
差分のデータとしては各画像の対応する画素別の「明るさ」についての差値(差分値)とこれら各差分値の度数(各差分値別のデータ数)を求める。「明るさ」が「明るい」とは、撮像した波長帯域において反射光及び/又は励起光の量が多いということを意味する。つまりその撮像波長帯域で現れるべき特徴的なパターンがより明確に表れているということである。「明るい」を「濃い」と言い換えることもできる。逆に「暗さ」は光の吸収の特性を表すものである。また「度数」は、その差分値を備えた画素の数を示す。 As difference data, a difference value (difference value) for “brightness” for each pixel corresponding to each image and the frequency of each difference value (data number for each difference value) are obtained. “Brightness” means “bright” means that the amount of reflected light and / or excitation light is large in the imaged wavelength band. That is, the characteristic pattern that should appear in the imaging wavelength band appears more clearly. “Bright” can be rephrased as “dark”. Conversely, “darkness” represents the light absorption characteristic. “Frequency” indicates the number of pixels having the difference value.
以後の演算は実際の画素における明るさをデジタル値に変換した256階調のAD値により行う。従って、両画像の「明るさ」の差分値は図14に示すように−255〜+255のAD値のいずれかに置き換えられる。 Subsequent calculations are performed using AD values of 256 tones obtained by converting the brightness of actual pixels into digital values. Accordingly, the difference value of “brightness” between the two images is replaced with one of the AD values of −255 to +255 as shown in FIG.
演算においては各AD値と度数との積を求めたうえで積の総和を求めるのであるが、この積の求め方に関して、AD値に正負の符号を付したまま度数との積を求める方法(図14に示した例がこれに該当する)と、AD値の絶対値である「指数」と度数との積を求める方法(図15に示した例がこれに該当する)とがある。前者の積の総和を「積和」と称し、後者の積の総和を「指数和」と称する。 In the calculation, the product sum of each AD value and the frequency is obtained and then the sum of the products is obtained. Regarding the method for obtaining this product, a method of obtaining the product of the frequency and the AD value with a positive / negative sign attached ( The example shown in FIG. 14 corresponds to this) and the method of obtaining the product of the “index” that is the absolute value of the AD value and the frequency (the example shown in FIG. 15 corresponds to this). The sum of the former products is referred to as “product sum”, and the sum of the latter products is referred to as “exponential sum”.
指数を用いて演算を行う場合、演算を容易にするため、差分の差がさらに強調されるようにする。図15にその手法の一例を示す。図15では差分値の絶対値を求めたうえで、そこからさらに「一定の値」を減じたものを「差分値指数」としている。マイナスの値が出る場合はこれを「ゼロ」とする。 When the calculation is performed using an exponent, the difference difference is further emphasized in order to facilitate the calculation. FIG. 15 shows an example of the method. In FIG. 15, the absolute value of the difference value is obtained, and a value obtained by further subtracting “a constant value” is used as a “difference value index”. If a negative value appears, this is set to “zero”.
図15では「一定の値」を「30」に別途設定しており、これにより、差分値において−30から+30までの区間はノイズ成分の領域として差分値指数においてはすべて「ゼロ」となる。すなわち差分値が−30から+30までの画素(ピクセル)はすべて許容誤差域内の同一画像として取り扱われる。従って、近似画像間におけるノイズの影響が排除され、差分値が±30以上となる真に差を持った画素のみが別画像として認識される要素となるように構成されている。差分値と指数の関係をグラフ化したものを図16に示す。 In FIG. 15, “constant value” is separately set to “30”, so that the interval from −30 to +30 in the difference value is all “zero” in the difference value index as the noise component region. That is, all pixels (pixels) having a difference value of −30 to +30 are treated as the same image within the allowable error range. Therefore, the influence of noise between approximate images is eliminated, and only pixels with a true difference that have a difference value of ± 30 or more are configured to be recognized as separate images. FIG. 16 is a graph showing the relationship between the difference value and the index.
差分値に基づき特徴を抽出し、特徴を特に明確に表している画像を代表画像として選定する手法を図17により説明する。図17には8枚の画像が示されている。これらの画像は、所定ピッチで中心波長を異ならせた波長帯域毎に撮像を行い、波長順に並べたものである。画像Pi-4は明るさが低く、そこからPi-3、Pi-2とPiに近づくにつれ次第に明るさが増し、画像Piでピークを迎える。画像Piを過ぎると、画像Pi+3まで順次明るさが減少して行く。すなわち、黒画像から人物像が徐々に浮かび上がり、その後徐々にフェードアウトして黒画像に戻る様子を例示している。なお、明暗逆の場合も同様であることは自明であり、説明は略す。 A method of extracting features based on the difference values and selecting an image that clearly represents the features as a representative image will be described with reference to FIG. FIG. 17 shows eight images. These images are picked up for each wavelength band with different center wavelengths at a predetermined pitch, and are arranged in order of wavelength. The image P i-4 is low in brightness, and gradually increases as it approaches P i-3 , P i-2, and P i , and reaches a peak in the image P i . After the image P i , the brightness decreases gradually to the image P i + 3 . That is, an example is shown in which a person image gradually emerges from a black image, and then gradually fades out to return to a black image. It is self-evident that the same is true in the case of light and dark, and the description is omitted.
隣接画像間の各差分値指数とこれに対応する度数の積の総和(積和)をDiで表す。「明るさ小」から「明るさ大」への変化は「プラス」、その逆は「マイナス」と表される。積和Diは対比した両画像の相違量を示すものである。 Sum of products of the frequencies corresponding thereto and each difference value index between adjacent images (sum of products) represented by D i. A change from “low brightness” to “high brightness” is expressed as “plus” and vice versa. The product sum D i indicates the amount of difference between the contrasted images.
以下に説明するのは、前述の指数和が別途定められたしきい値より小さく、同類画像と判定される場合の代表画像の選定処理手順である。 Described below is a representative image selection processing procedure in the case where the above-mentioned exponent sum is smaller than a separately determined threshold value and is determined to be a similar image.
画像Pi-4とPi-3、Pi-3とPi-2、Pi-2とPi-1、Pi-1とPiの間の積和Diはいずれも「プラス」すなわち人物像の浮かび上がりの領域にある。ところが画像PiとPi+1の間になると積和Diが「マイナス」すなわち人物像のフェードアウトの領域に転じ、画像Pi+1とPi+2、Pi+2とPi+3の間も「マイナス」を維持する。「明るさ小」から「明るさ大」へと移ってきた趨勢が画像Piと画像Pi+1の間で逆転したためにこのような結果になったものであり、画像PiとPi+1の間が変化点ということになる。 Image P i-4 and P i-3, P i-3 and P i-2, P i-2 and P i-1, P i-1 are both the product-sum D i between the P i "plus In other words, it is in the area where the figure of the person appears. However, when it is between the images P i and P i + 1 , the product sum D i turns to “minus”, that is, the fade-out area of the human image, and the images P i + 1 and P i + 2 , P i + 2 and P i +. Keep “minus” during 3 . This is because the trend of shifting from “low brightness” to “high brightness” was reversed between the image P i and the image P i + 1 , and thus the images P i and P i Between +1 is the changing point.
変化点の直前に位置する画像Piは前後の画像群の中で最も明るくくっきりしている。すなわちこの画像群に共通する特徴が最も識別しやすい形で表れたものであるから、これを代表画像として採用するとともに画像Piの前後の画像Pi-4、Pi-3…Pi+4を同類画像として代表データ格納部88に格納登録する。 The image P i located immediately before the change point is the brightest and clearest among the preceding and following image groups. That because the feature common to the image group in which appeared the most easy identification form, before and after the image P i-4 of the image P i as well as employing the same as the representative image, P i-3 ... P i + 4 is stored and registered in the representative data storage unit 88 as a similar image.
次に説明するのは、前述の指数和が別途定められたしきい値より大きく、同類画像でないと判定された場合の代表画像の選定処理手順である。 Next, a representative image selection processing procedure in the case where it is determined that the above-mentioned exponent sum is larger than a separately determined threshold value and is not a similar image will be described.
図18は「明るさ小」から「明るさ大」へと変化してきたグループ1の画像群が画像Piと画像Pi+1の間で突如同類でないグループ2の画像群に転換してしまった場合を示す。この場合上記指数和は別途定められたしきい値より大きくなる。このときは前述のようにグループ1の画像群のうち最も明るい最後の画像Piが代表画像として登録されている。画像Pi-4、Pi-3、Pi-2、Pi-1では同類画像として情報のみが代表データ格納部88に格納登録されている。 In FIG. 18, the group 1 image group that has changed from “low brightness” to “high brightness” has suddenly changed to an image group 2 that is not similar between the images P i and P i + 1. Indicates the case. In this case, the exponent sum is larger than a separately defined threshold value. At this time, as described above, the brightest last image P i in the group 1 image group is registered as the representative image. In the images P i-4 , P i-3 , P i-2 , P i-1 , only information is stored and registered in the representative data storage unit 88 as similar images.
上記作業を繰り返し、250〜2,000nmの波長域にわたって取得した多数の画像群から何種類かの代表画像とその同類画像を抽出して同類画像情報と共に代表データ格納部88に格納登録する。 The above operation is repeated, and several types of representative images and their similar images are extracted from a large number of image groups acquired over a wavelength range of 250 to 2,000 nm, and stored and registered in the representative data storage unit 88 together with similar image information.
このようにして1枚の試料から光学的な特徴が自動的に抽出され、その特徴を良く表した画像を代表画像として仕分け格納することになるが、この一連の画像解析は図19のフローチャートに従って遂行される。 In this way, optical features are automatically extracted from one sample, and images that clearly represent the features are sorted and stored as representative images. This series of image analysis is performed according to the flowchart of FIG. Carried out.
図19のステップS101では「今回の画像」と「前回の画像」との各画素毎の差分値を全画素にわたり求める。「今回の画像」は現在解析を行おうとしている解析画像、「前回の画像」は直前に解析を行った解析画像のことである。「前回の画像」は既にいずれかの代表画像と同類であることが見いだされているものとする。ステップS102では図15の手法により求めた差分値の値を強調した差分値指数と各差分値指数別の度数との積の総和を指数和として求める。ステップS103ではその指数和が所定のしきい値以上であるかどうかを判定する。予め定められたしきい値に達していなければ、すなわち今回の画像と前回の画像と類似であるとしてステップS104に進む。 In step S101 in FIG. 19, a difference value for each pixel between the “current image” and the “previous image” is obtained for all the pixels. The “current image” is the analysis image that is currently being analyzed, and the “previous image” is the analysis image that was analyzed immediately before. It is assumed that the “previous image” has already been found to be similar to any one of the representative images. In step S102, the sum of products of the difference value index emphasizing the value of the difference value obtained by the method of FIG. 15 and the frequency for each difference value index is obtained as the index sum. In step S103, it is determined whether the exponent sum is equal to or greater than a predetermined threshold value. If the predetermined threshold value has not been reached, that is, it is determined that the current image is similar to the previous image, and the process proceeds to step S104.
ステップS104では今回の画像が前回の画像よりも「明るい」かどうかを判定する。前述のとおり、「明るい」とは撮像した波長帯域において反射光及び/又は励起光の量が多いということを意味する。つまりその撮像波長帯域で現れるべき特徴的なパターンがより明確に表れているということである。「明るさ」比較においては指数和でなく、正負の符号を付した差分値と度数との積の総和(図14の積和)を用いる(ステップS105、ステップS106においても同様)。 In step S104, it is determined whether or not the current image is “brighter” than the previous image. As described above, “bright” means that the amount of reflected light and / or excitation light is large in the imaged wavelength band. That is, the characteristic pattern that should appear in the imaging wavelength band appears more clearly. In the “brightness” comparison, not the exponent sum but the sum of the products of the difference value and the frequency with the sign of positive and negative (product sum in FIG. 14) is used (the same applies to steps S105 and S106).
今回の画像が前回の画像よりも明るければステップS105に進む。ここでは前回の画像と同類関係にある代表画像と今回の画像との各画素毎の差分値を全画素にわたり求め、明暗を比較する。その結果、ステップS106で今回の画像の方が代表画像よりも所定値以上に明るいと判定されればステップS107へと進む。 If the current image is brighter than the previous image, the process proceeds to step S105. Here, a difference value for each pixel between the representative image having the same relationship as the previous image and the current image is obtained over all the pixels, and the brightness is compared. As a result, if it is determined in step S106 that the current image is brighter than the representative image by a predetermined value or more, the process proceeds to step S107.
ステップS107では当該類似グループの代表画像を更新し、今回の画像を新たな代表画像とし、これまで代表画像であった画像を新しい代表画像の同類画像として登録する。 In step S107, the representative image of the similar group is updated, the current image is made a new representative image, and the image that has been the representative image so far is registered as a similar image of the new representative image.
ステップS104において今回の画像が前回の画像より明るくなかった場合はステップS108に進む。そして前回までの代表画像と同類であると登録される。 If the current image is not brighter than the previous image in step S104, the process proceeds to step S108. Then, it is registered as being similar to the representative image up to the previous time.
ステップS106において、今回の画像が代表画像よりも所定値以上に明るくない、すなわち誤差域にあると判定された場合にもステップS108に進む。そして前回までの代表画像と同類であると登録される。 In step S106, the process also proceeds to step S108 when it is determined that the current image is not brighter than the representative image by a predetermined value, that is, in the error range. Then, it is registered as being similar to the representative image up to the previous time.
一方、ステップS103で、指数和が所定のしきい値以上であると判定されれば今回の画像と前回の画像とは非類似ということになり、ステップS109に進む。 On the other hand, if it is determined in step S103 that the exponent sum is equal to or greater than the predetermined threshold, the current image and the previous image are dissimilar, and the process proceeds to step S109.
ステップS109では当該試料に関してこれまで及び/又は今回の特徴抽出工程で登録した全代表画像と今回の画像とを積和でもって照合し、最近似画像として最小差分代表画像を探し、ステップS110に進む。 In step S109, all the representative images registered so far and / or in the feature extraction process of this sample and the current image are collated with the sum of products to find the minimum difference representative image as the most approximate image, and the process proceeds to step S110. .
ステップS110では最小差分代表画像を今回の画像の代表画像に仮設定するとともに、この仮設定代表画像と今回の画像との各画素毎の差分値を全画素にわたり求める。ステップS111では図15の手法により求めた差分値の値を強調した差分値指数と各指数別の度数との積の総和を指数和として求める。ステップS112ではその指数和が所定の判定値以上であるかどうかを判定する。予め定められた判定値に達していなければ、仮代表とした最小差分代表画像と今回の画像が類似であるとしてステップS105に進み、前述同様の処理が実行される。 In step S110, the minimum difference representative image is temporarily set as the representative image of the current image, and a difference value for each pixel between the temporary set representative image and the current image is obtained for all pixels. In step S111, the sum of the products of the difference value index emphasizing the difference value obtained by the method of FIG. 15 and the frequency for each index is obtained as the index sum. In step S112, it is determined whether the exponent sum is equal to or greater than a predetermined determination value. If the predetermined determination value has not been reached, the process proceeds to step S105 on the assumption that the minimum difference representative image as the temporary representative is similar to the current image, and the same processing as described above is executed.
ステップS112で指数和が所定の判定値以上であれば、仮代表とした最小差分代表画像と今回の画像が非類似であるとしてステップS113に進む。そして今回の画像が新たな代表画像として登録される。 If the index sum is greater than or equal to the predetermined determination value in step S112, the process proceeds to step S113 on the assumption that the minimum difference representative image as the temporary representative and the current image are dissimilar. The current image is registered as a new representative image.
画像データは、代表画像については特徴抽出演算に用いた詳細な画像データを残す。また、代表画像以外の画像については、各々代表画像との照合データ(光学特性の特徴抽出条件等の類分け情報)のみ残し、画像データそのものは消去し得るようにする。これにより1枚の試料に費やすメモリの量を節約可能とする。 As for the image data, the detailed image data used for the feature extraction calculation is left for the representative image. For images other than the representative image, only the collation data (classification information such as optical characteristic feature extraction conditions) with the representative image is left, and the image data itself can be erased. This makes it possible to save the amount of memory spent on one sample.
さらに特徴抽出装置1では、図示はしないが、代表画像に対応するカメラからの読み出し画像(カメラ画像)を代表実画像として併せて記憶保持する構成とした。すなわち、前後画像の差分値算出及びその他の分類仕分け演算を別途設定した圧縮画像データに基づき簡易に高速処理するにしても、詳細なカメラ画像データがそのまま代表実画像として保持されているので、更に別の演算仕様で再仕分け演算することとなった場合、各々の代表実画像データと照合データから精度の高い特徴抽出を行うことが可能となる。 Furthermore, although not shown in the figure, the feature extraction apparatus 1 is configured to store and hold a read image (camera image) from the camera corresponding to the representative image as a representative real image. In other words, even if the difference value calculation of the preceding and following images and other classification sorting operations are simply performed at high speed based on the separately set compressed image data, detailed camera image data is retained as it is as a representative real image. When re-sorting calculation is performed according to another calculation specification, it is possible to perform highly accurate feature extraction from each representative actual image data and collation data.
新たな試料につきこれら抽出特徴を用いて同異識別する必要が生じたときは、所定ピッチで検査光及び/又は撮像光の中心波長を異ならせつつ各々の波長帯域毎に新試料の撮像を行い、基準となる標本資料の代表画像撮像波長及び/又は所定の波長域で近似する画像を取得できたかどうか、及び/又は各々代表画像の同類画像の発現帯域を必要箇所で同異チェックすることにより比較判別を行う。 When it is necessary to distinguish between different samples using these extraction features, a new sample is imaged for each wavelength band while varying the center wavelength of the inspection light and / or imaging light at a predetermined pitch. By checking whether or not an image approximate to the representative image imaging wavelength and / or a predetermined wavelength range of the reference specimen material has been acquired, and / or the difference band of the similar image of each representative image at the required location Perform comparative discrimination.
ここで、図30の撮像ログ事例を用いて、照合データの説明を行う。撮像ログは検索仕様部と撮像データのインデックス部とで構成されている。検索番号は試料毎又は、検索単位毎に振られる番号である。試料サイズは撮像する媒体の大きさを示し、本例では50mm×50mmの大きさを有している。照射波長は250nm〜970nmであり、30nmピッチで変化させたことを示している。カメラはCCDカメラとIRカメラのうち、CCDカメラを使ったことを示す。「CCD画像サイズ=4×4(256×256)」は4画素×4画素を1単位として縦横256画素の領域として取り扱うことを示している。CCD露光時間は30mSである。「CCD露光時間自動設定=0」はオフを示し、CCD検知波長はスウィープ開始波長、終了波長と撮像波長ピッチが入るが、本例では全て0なので全波長(白色光)使用の設定がされていることになる。MEMOの欄には任意の文字を入力することができ、後で参照できる。「画像枚数=25」は、上記照射波長等の設定内容で算出される撮像枚数を示しており、撮像画像枚数が25枚あり、測定条件を違えたものが25種あることを示している。次にCCD撮像素子の冷却温度が−30゜C、IR撮像素子は使用しないことを示している。切出位置はカメラ撮像画像の有効領域内の座標を示し、10、33、29、233と設定されている。白基準位置は白基準の画像域を示しているもので、119、39、127、47で示される矩形領域である。また、黒基準の画像域は123、238、131、246で示される矩形領域である。folderは撮像画像データを格納するハードディスク内のフォルダ名で、検索番号を使用している。 Here, the collation data will be described using the imaging log example of FIG. The imaging log is composed of a search specification part and an imaging data index part. The search number is a number assigned to each sample or each search unit. The sample size indicates the size of the medium to be imaged, and has a size of 50 mm × 50 mm in this example. The irradiation wavelength was 250 nm to 970 nm, indicating that the irradiation wavelength was changed at a 30 nm pitch. The camera indicates that the CCD camera is used out of the CCD camera and the IR camera. “CCD image size = 4 × 4 (256 × 256)” indicates that 4 pixels × 4 pixels are handled as one unit and is treated as an area of 256 pixels vertically and horizontally. The CCD exposure time is 30 mS. “CCD exposure time automatic setting = 0” indicates OFF, and the CCD detection wavelength includes the sweep start wavelength, end wavelength, and imaging wavelength pitch. In this example, since all are 0, all wavelengths (white light) are set to be used. Will be. Arbitrary characters can be entered in the MEMO column for later reference. “Number of images = 25” indicates the number of captured images calculated based on the setting contents such as the irradiation wavelength, and indicates that there are 25 captured images and there are 25 types with different measurement conditions. Next, it is shown that the cooling temperature of the CCD image sensor is −30 ° C. and the IR image sensor is not used. The cut-out position indicates coordinates within the effective area of the camera captured image, and is set to 10, 33, 29, 233. The white reference position indicates a white reference image area, and is a rectangular area indicated by 119, 39, 127, 47. The black reference image area is a rectangular area indicated by 123, 238, 131, and 246. Folder is the name of a folder in the hard disk that stores captured image data, and uses a search number.
後半の撮像データのインデックス部は検索を開始してから終了までの各撮像に連番を振り分け、その撮像に対する条件を残している。例えば00000003番の行を説明すると次のようになる。17:28:50が撮像時刻を示し、17時28分50秒に撮像したことを示す。F=MCX0250−0000.BMPは、BMP形式の画像ファイルを意味し、このファイル名で実画像データが格納されており、撮像手段として、CCD撮像素子を用い、ランプはキセノンランプを使用し、検査光である照射光の波長は250nmであり、撮像側は全波長光を通過させていることを意味している。 The index part of the latter half of the imaging data assigns serial numbers to each imaging from the start to the end of the search, and leaves the conditions for the imaging. For example, the line 00000003 is described as follows. 17:28:50 indicates the imaging time, indicating that imaging was performed at 17:28:50. F = MCX0250-0000. BMP means an image file in the BMP format, and real image data is stored with this file name. A CCD image pickup device is used as an image pickup means, a xenon lamp is used as a lamp, and irradiation light that is inspection light is used. The wavelength is 250 nm, which means that the imaging side transmits all wavelength light.
ファイル名に続くデータは、T=30.0が露光時間で30.0mSであることを示し、W=636は、上述の条件における白基準位置の白基準の読み取り値が636AD値であることを示し、B=621は黒基準位置の黒基準の読み取り値が621AD値であることを示している。S=735>>601は補正すべき有効ダイナミックレンジの値である。補正されると735ADから601AD値の間を256階調にダイナミックレンジをとることになる。末尾のOKは正常撮像画像であることを意味する。 The data following the file name indicates that T = 30.0 is the exposure time of 30.0 mS, and W = 636 indicates that the white reference read value at the white reference position under the above conditions is a 636AD value. B = 621 indicates that the black reference read value at the black reference position is the 621AD value. S = 735 >> 601 is an effective dynamic range value to be corrected. When corrected, a dynamic range of 256 gradations is taken between 735AD and 601AD values. OK at the end means a normal captured image.
ここで照合データとして、光学特性の特徴抽出条件等の図30に示すファイル名データ及び、上述した付属の撮像条件のデータを残し、実際の画像データを消去することにより、メモリの節約が行える。 Here, as the verification data, the file name data shown in FIG. 30 such as the feature extraction conditions of the optical characteristics and the data of the attached imaging conditions described above are left and the actual image data is deleted, so that memory can be saved.
紙葉類の特徴抽出及び同類分類に関する第2の方法は競合型学習を用いたニューラルネットワークの一手法である自己組織化特徴地図(self-organizing feature map)を画像の同類分類処理の一部にマッピング演算として活用する。この自己組織化特徴地図の手法はニューラルネットワークモデルの一つのパラダイムとしてKohonenにより提唱されており、本発明では、分類性能を上げるために教師無し学習の一手法である競合型学習を対象として、自己組織的な学習則を適応する。以下その概念を図20〜23に基づき説明する。 The second method of paper sheet feature extraction and classification is a self-organizing feature map, which is a method of neural network using competitive learning, as part of image classification processing. Use as a mapping operation. This self-organizing feature map method is proposed by Kohonen as one of the neural network model paradigms. In the present invention, self-organization feature map is designed for competitive learning, which is a method of unsupervised learning to improve classification performance. Adapt organizational learning rules. The concept will be described below with reference to FIGS.
まず、図20のような2層のネットワークを想定する。第1層は入力層、第2層は競合層である。競合層は2次元グリッドとなっている。入力層の各入力ユニットは競合層のすべてのユニットと結合している。 First, a two-layer network as shown in FIG. 20 is assumed. The first layer is an input layer, and the second layer is a competitive layer. The competitive layer is a two-dimensional grid. Each input unit in the input layer is associated with all units in the competitive layer.
入力パターンが与えられると、入力層のユニットは入力パターンの対応した要素の値をとる。競合層は入力の加算を行い、唯一の勝者を見いだす。 Given an input pattern, an input layer unit takes the value of the corresponding element of the input pattern. The competitive layer adds the inputs and finds the only winner.
図20において、各相互結合は重み値を持っている。初期状態ではランダムな重み値が与えられる。 In FIG. 20, each mutual connection has a weight value. In the initial state, a random weight value is given.
図21はランダムな入力パターンを得る様子を示す。乱数ジェネレータがパターンベクトルの各要素に数を与える。乱数ジェネレータから得られる数は0と1の間に一様に分布する。 FIG. 21 shows how a random input pattern is obtained. A random number generator gives a number to each element of the pattern vector. The numbers obtained from the random number generator are uniformly distributed between 0 and 1.
Kohonen特徴地図の入力パターンは次のように表記される。 The input pattern of Kohonen feature map is expressed as follows.
E=[e1,e2,e3,…,en] (Eは撮像画像、nは画素数)
この入力パターンの各ユニットが競合層の特定ユニットに結合する様子を図22に示す。重みは
Ui=[ui1,ui2,…,uin] (Uiは予測特徴画像、nは画素数)
で与えられる。iは競合層のユニットを表し、予測特徴画像の番号である。
E = [e 1 , e 2 , e 3 ,..., E n ] (E is a captured image, n is the number of pixels)
FIG. 22 shows how each unit of this input pattern is combined with a specific unit in the competitive layer. The weight is U i = [u i1 , u i2 ,..., U in ] (U i is a predicted feature image, n is the number of pixels)
Given in. i represents the unit of the competitive layer and is the number of the prediction feature image.
Kohonen特徴地図では最初に競合層にある各ユニットにつき一致値(matching value)を計算する。この値は、各ユニットの重みが入力パターンの対応する値と一致する程度を計る目安となる。ユニットiに対する一致値は
‖E−Ui‖
となる。これはベクトルEとUiの間の距離であり、次の式により計算される。
(jは画素番号、iは予測特徴画像の番号)
The Kohonen feature map first calculates a matching value for each unit in the competitive layer. This value is a measure for measuring the degree to which the weight of each unit matches the corresponding value of the input pattern. The match value for unit i is ‖E−U i ‖
It becomes. This is the distance between the vectors E and U i and is calculated by the following equation.
(J is the pixel number, i is the number of the predicted feature image)
一致値の最も低い(最も良く一致する)ユニット(予測特徴画像)が競合に勝つ。最も良く一致するユニットをcで表すことにすると、cは
‖E−Uc‖=min{‖E−Ui‖}
のように選ばれる。最小値は競合層のすべてのユニットi(予測特徴画像)の中から選ばれる。同じ一致値を持つユニット(予測特徴画像)が複数個存在する場合は、指標値i(予測特徴画像の番号)の最も小さいユニットが選ばれる。
The unit with the lowest match value (the best match) (predicted feature image) wins the competition. If the best matching unit is represented by c, c is ‖E−U c ‖ = min {‖E−U i ‖}
It is chosen as follows. The minimum value is selected from all the units i (predicted feature images) in the competitive layer. When there are a plurality of units (predicted feature images) having the same matching value, the unit having the smallest index value i (predicted feature image number) is selected.
勝者ユニットが決まったら、そのユニットの近傍を定める。図23にその様子を示す。勝者ユニットcを正方形に囲むユニットをもって近傍とする。近傍はユニットの集合Ncで表される。近傍のサイズは変化する。 Once the winner unit is determined, determine the vicinity of that unit. This is shown in FIG. A unit surrounding the winner unit c in a square is defined as a neighborhood. The neighborhood is represented by a set N c of units. The size of the neighborhood changes.
勝者ユニットcの近傍にあるすべてのユニットの重みが調整される。調整方程式は
Δuij=α(ej−uij):ユニットiが近傍Ncにある場合
Δuij=0 :それ以外の場合
である。また
uij new=uij old+Δuij
である。
The weights of all units near the winner unit c are adjusted. The adjustment equation is Δu ij = α (e j −u ij ): when the unit i is in the neighborhood N c Δu ij = 0: otherwise. U ij new = u ij old + Δu ij
It is.
この調整により、修正された重みを持ち、より入力パターンに近似した勝者ユニット(予測特徴画像)とその近傍が得られる。 By this adjustment, a winner unit (predicted feature image) having a corrected weight and more approximate to the input pattern and its vicinity are obtained.
調整方程式の学習率αは比較的大きな初期値(2〜0.5)を持つが、何回も繰り返して演習するうちに減少する。減少率は次式で表される。 The learning rate α of the adjustment equation has a relatively large initial value (2 to 0.5), but decreases as the exercise is repeated many times. The reduction rate is expressed by the following equation.
上式においてtは現在の訓練回数、Tは行われるべき訓練の全回数である。学習率αは初期値α0から始まり、値0に達するまで減少していく。 In the above equation, t is the current number of exercises, and T is the total number of exercises to be performed. The learning rate α starts from the initial value α 0 and decreases until reaching the value 0.
近傍の幅も、初期値においては比較的大きく、訓練を繰り返すと減少する。図23における勝者ユニットcの位置は(xc,yc)である。cから近傍の縁までの距離をdとすると、近傍は
c−d<x<c+d
と
c−d<y<c+d
を満たすすべての(x,y)からなる。
The width of the neighborhood is also relatively large at the initial value and decreases with repeated training. The position of the winner unit c in FIG. 23 is (x c , y c ). If the distance from c to the neighboring edge is d, the neighborhood is c−d <x <c + d
And cd <y <c + d
It consists of all (x, y) that satisfy
訓練を重ねるとともにdの値は減少する。dの初期値d0は競合層(初期の予測特徴画像のエリア)の幅の1/2か1/3に設定される。dは次式によって求められる。 The value of d decreases with training. The initial value d 0 of d is set to 1/2 or 1/3 of the width of the competitive layer (the area of the initial predicted feature image). d is obtained by the following equation.
上式においてtは現在の訓練回数、Tは行われるべき訓練の全回数である。dはd0から1へ1次的に減少していく。 In the above equation, t is the current number of exercises, and T is the total number of exercises to be performed. d decreases linearly from d 0 to 1.
上記自己組織化特徴地図の手法を次のように画像解析に応用する。まず競合層に別途指定された複数個の指標データ(予測特徴画像)を設定する。指標データ(予測特徴画像)はランダムに設定したベクトルであるが、この場合の指標データ(予測特徴画像)は処理すべき画像データ(解析画像)の平均データを所定幅ずらせて作成し、「予測特徴画像」としての地位を与える。入力層には取得した画像(解析画像)のベクトルを入力する。 The above self-organizing feature map method is applied to image analysis as follows. First, a plurality of index data (predicted feature images) separately designated for the competitive layer is set. The index data (predicted feature image) is a vector set at random. In this case, the index data (predicted feature image) is created by shifting the average data of the image data (analyzed image) to be processed by a predetermined width. Gives the status as "feature image". A vector of the acquired image (analysis image) is input to the input layer.
個々の予測特徴画像と取得した撮像画像とを逐次比較し、一致値を幾何学的な距離、すなわちユークリッド距離の値として計算する。一致値の最も低い(最も良く一致する、最も近似する)予測特徴画像が勝者ということになる。取得画像は勝者の予測特徴画像と同類関係になったものとする。 Each predicted feature image and the acquired captured image are sequentially compared, and the coincidence value is calculated as a geometric distance, that is, a value of the Euclidean distance. The predicted feature image with the lowest matching value (best matching, most approximate) is the winner. It is assumed that the acquired image has a similar relationship with the predicted feature image of the winner.
勝者とその近傍の予測特徴画像の重みは前述の調整方程式に基づき修正される。すなわち同類関係にある取得画像に一層近づくよう予測特徴画像が修正されることになる。その様子を図24に示す。図24において、ui(t)は予測特徴画像、eiは同類関係となった取得画像を、いずれもベクトルの形で表したものである。ui(t+1)は同類関係になった取得画像に基づき修正された予測特徴画像を、これまたベクトルの形で表したものである。もう一度比較(演習)を行うと、今度はui(t+1)とeiが比較され、さらにeiに近づいた予測特徴画像ui(t+2)が生成されることになる。このようにして比較(演習)の回を重ねるにつれ、予測特徴画像は取得画像にますます近づいていく。 The weights of the winner and the predicted feature image in the vicinity thereof are corrected based on the adjustment equation described above. That is, the predicted feature image is corrected so as to be closer to the acquired image having the similar relationship. This is shown in FIG. In FIG. 24, u i (t) represents a predicted feature image, and e i represents an acquired image having a similar relationship, in the form of a vector. u i (t + 1) represents the predicted feature image corrected based on the acquired image having the similar relationship, and is also represented in the form of a vector. When comparison (exercise) is performed once again, u i (t + 1) and e i are compared, and a predicted feature image u i (t + 2) approaching e i is generated. In this way, as the comparison (exercise) is repeated, the predicted feature image becomes closer to the acquired image.
ところで、予測特徴画像ui(t)と同類関係になる取得画像はただ1個とは限らない。ei-1、ei+1といった近傍画像の他、飛び離れた画像ei+xが同類関係となることもある。そのような同類の画像と比較される度、予測特徴画像は修正を受ける。 By the way, the number of acquired images that are similar to the predicted feature image u i (t) is not limited to one. In addition to neighboring images such as e i-1 and e i + 1 , separated images e i + x may have a similar relationship. Each time it is compared with such a similar image, the predicted feature image is subject to modification.
このように、取得した画像を複数個の予測特徴画像に逐次比較して最も近似する予測特徴画像と同類関係にあるものとするとともに、同類関係となった撮像画像に一層近づくよう予測特徴画像を修正し、その修正後の予測特徴画像に対し撮像画像を再度逐次比較するという工程を別途設定された学習回数だけ繰り返すことにより、予測特徴画像は次第に1点に収斂して行く。所定回数の学習終了時に比較を打ち切り、そのときの修正予測特徴画像を最終の予測特徴画像とする。 In this way, the acquired image is sequentially compared with a plurality of predicted feature images and is assumed to have a similar relationship with the most similar predicted feature image, and the predicted feature image is further approximated to the captured image having the similar relationship. By repeating the process of correcting and sequentially comparing the captured image again with the corrected predicted feature image, the predicted feature image gradually converges to one point. At the end of the predetermined number of learnings, the comparison is aborted, and the corrected predicted feature image at that time is set as the final predicted feature image.
最初の一巡の比較で、概ねどの予測特徴画像もいずれかの撮像画像と同類関係を結ぶ。何巡も比較を繰り返し、予測特徴画像の値が修正を受けて変化するうちに、今まで競合のなかった予測特徴画像同士の競合が生じることがある。競合が生じれば必ず一方が勝者、他方が敗者となる(近似度同一の場合は指標値i(予測特徴画像の番号)の小さいものが勝者になる)ため、同類関係とされていた撮像画像を他の予測特徴画像に奪われるといったケースも出てくる。本発明の処理においては同類関係の撮像画像をすべて奪われてしまった予測特徴画像はもはや存在の意義がないので最終的には全て消去する。 In the first round of comparison, almost every predicted feature image has a similar relationship with any captured image. While the comparison is repeated many times and the value of the predicted feature image is modified and changed, there may be a conflict between the predicted feature images that have not been competed until now. If a conflict occurs, one will always be a winner and the other will be a loser (if the degree of approximation is the same, the index value i (the number of the predicted feature image) is the winner), so the captured images that have been of a similar relationship In some cases, the image is taken away by other predictive feature images. In the processing according to the present invention, all the predicted feature images that have been deprived of all similar captured images are no longer meaningful, and are eventually deleted.
また本発明では、予め定められた近似度以内に複数の予測特徴画像が存在する場合、予測特徴画像が過剰であるとしてそれらの平均値をとった単一の予測特徴画像に統合更新し、統合前の予測特徴画像は削除する。 Further, in the present invention, when there are a plurality of predicted feature images within a predetermined degree of approximation, the predicted feature images are excessively integrated and updated to a single predicted feature image obtained by averaging their integrated values. The previous predicted feature image is deleted.
さらに本発明では、撮像画像は通常、いずれかの予測特徴画像と同類関係を結ぶが、中にはどの予測特徴画像とも所定距離での同類関係とならない撮像画像も出てくる。そこで、いずれの予測特徴画像とも所定の近似範囲になく、別途定められた分散許容値内で同類関係を結べない撮像画像が出てきたときは、これらの撮像画像を用いて新たな予測特徴画像を作成する。 Furthermore, in the present invention, the captured image normally has a similar relationship with any one of the predicted feature images, but some captured images do not have a similar relationship with any predicted feature image at a predetermined distance. Therefore, when a captured image that is not within the predetermined approximate range with any of the predicted feature images and does not have a similar relationship within a separately determined dispersion tolerance value, a new predicted feature image is created using these captured images. Create
この一連の画像解析は図25のフローチャートに従って遂行される。 This series of image analysis is performed according to the flowchart of FIG.
まずステップS201で初期指標データ(予測特徴画像)を作成する。ここでは分類すべき複数の撮像画像(通常は20〜200画像)の各要素別平均値の各々に小さな乱数を加えて初期指標データ(予測特徴画像)とする。初期指標データ(予測特徴画像)は予測特徴画像として別途指定される個数(通常は9〜16個)作成する。なお、各要素別平均値は全取得画像のデータから求めるものとするが、任意に選択された撮像画像のデータから求めることとしてもよい。 First, in step S201, initial index data (predicted feature image) is created. Here, initial index data (predicted feature image) is obtained by adding a small random number to each elemental average value of a plurality of captured images (usually 20 to 200 images) to be classified. The initial index data (predicted feature images) is created separately (usually 9 to 16) as designated predictive feature images. The average value for each element is obtained from the data of all acquired images, but may be obtained from the data of arbitrarily selected captured images.
ステップS202では、上記初期指標データ(予測特徴画像)の各々に上記全撮像画像データを同類分類するための演算定数をマッピング演算の初期定数として設定する。Tは学習回数を示し、通常は1000回が設定される。α0は初期学習率を示し、通常は0.5に設定される。d0は初期近傍幅を示し、通常は前述の競合層(初期予測特徴画像)の幅の1/3又は1/4に設定される。 In step S202, a calculation constant for classifying all the captured image data into the same category is set for each of the initial index data (predicted feature images) as an initial constant of the mapping calculation. T indicates the number of learning times, and is normally set to 1000 times. α 0 indicates an initial learning rate, and is usually set to 0.5. d 0 indicates an initial neighborhood width, and is usually set to 1/3 or 1/4 of the width of the aforementioned competitive layer (initial predicted feature image).
ステップS203、及びS204では、上記演算定数を用い、上記初期指標データ(予測特徴画像)の各々についてマッピング演算が実行される。詳細は前述の自己組織化特徴地図の手法の通りである。 In steps S203 and S204, a mapping calculation is performed for each of the initial index data (predicted feature images) using the calculation constant. Details are as described in the self-organizing feature map method described above.
ステップS205では、同類分類作業を行った指標データ(予測特徴画像)毎に、指標データ(予測特徴画像)とこれに同類対応する撮像画像の各々とのユークリッド距離を計算する。 In step S205, the Euclidean distance between the index data (predicted feature image) and each of the captured images corresponding to the same category is calculated for each index data (predicted feature image) that has been subjected to the similar classification operation.
ステップS206では、指標データ(予測特徴画像)とこれに同類対応する撮像画像の各々とのユークリッド距離が所定の近似範囲内か近似範囲外かを判定し、近似範囲外であればステップS207に進む。 In step S206, it is determined whether the Euclidean distance between the index data (predicted feature image) and each captured image corresponding to the index data is within a predetermined approximate range or out of the approximate range. If it is out of the approximate range, the process proceeds to step S207. .
ステップS207では上記許容値外の撮像画像の平均値画像をこの指標データ(予測特徴画像)のサブ指標データ(予測特徴画像)として追加し、これら指標データ(予測特徴画像)及びサブ指標データ(予測特徴画像)に同類対応する撮像画像に関して再度ステップS202からのマッピング演算を実行する。マッピング演算は1固定値の近傍幅でのみ実行される。 In step S207, the average value image of the captured images outside the allowable value is added as sub-index data (predicted feature image) of the index data (predicted feature image), and these index data (predicted feature image) and sub-index data (predicted). The mapping operation from step S202 is executed again on the captured image corresponding to the same type of feature image. The mapping operation is executed only in the neighborhood width of 1 fixed value.
上記によれば、いずれかの指標データ(予測特徴画像)につきユークリッド距離が近似範囲外となる類似度の低い撮像画像が存在する場合、この撮像画像に合わせてサブ指標データ(予測特徴画像)が追加設定され、既に指標データ(予測特徴画像)に同類分類されている撮像画像も前記サブ指標データ(予測特徴画像)を含めた複数の指標データ(予測特徴画像)に対し改めて同類分類し直されるものである。 According to the above, in the case where there is a captured image with a low degree of similarity in which the Euclidean distance is outside the approximate range for any index data (predicted feature image), sub-index data (predicted feature image) is matched to the captured image. The captured image that has been additionally set and already classified in the index data (predicted feature image) is also reclassified to the plurality of index data (predicted feature image) including the sub-index data (predicted feature image). Is.
他方、ステップS206で全撮像画像とこれに同類対応する指標データ(予測特徴画像)とのユークリッド距離が近似範囲内であると判定されればステップS208に進む。 On the other hand, if it is determined in step S206 that the Euclidean distance between all captured images and the index data (predicted feature image) corresponding to the same is within the approximate range, the process proceeds to step S208.
ステップS208では全指標データ(予測特徴画像)相互間のユークリッド距離を計算して最短距離にある指標データ(予測特徴画像)の対を求める。さらに、これら対をなす指標データ(予測特徴画像)に同類対応する撮像画像相互間のユークリッド距離を計算し、その中で最大のものを求める。 In step S208, the Euclidean distance between all index data (predicted feature images) is calculated to obtain a pair of index data (predicted feature images) at the shortest distance. Furthermore, the Euclidean distance between the captured images corresponding to the same kind of the index data (predicted feature image) forming a pair is calculated, and the maximum one is obtained.
最短距離にある指標データ(予測特徴画像)に同類対応する撮像画像相互間の最大ユークリッド距離をステップS208で求めた後、ステップS209でその最大ユークリッド距離が所定の判定値内か否かを判定する。判定値内の場合はステップS210に進む。 After the maximum Euclidean distance between captured images corresponding to the same kind of index data (predicted feature image) at the shortest distance is obtained in step S208, it is determined in step S209 whether the maximum Euclidean distance is within a predetermined determination value. . If it is within the determination value, the process proceeds to step S210.
ステップS210ではこの最短距離にある両指標データ(予測特徴画像)の平均値を新指標データ(予測特徴画像)とし、元となった両指標データ(予測特徴画像)を削除する。そして再度上記ステップS208からの演算を実行する。 In step S210, the average value of both index data (predicted feature images) at the shortest distance is set as new index data (predicted feature images), and the original both index data (predicted feature images) are deleted. Then, the calculation from step S208 is executed again.
上記によれば、所定の近似値以上に近似する画像が複数の指標データ(予測特徴画像)に過剰に同類分類されるような場合、その複数の指標データ(予測特徴画像)は適正な新指標データ(予測特徴画像)に統合され、更新されることとなる。 According to the above, when an image approximating a predetermined approximate value or more is excessively classified into a plurality of index data (predicted feature images), the plurality of index data (predicted feature images) is an appropriate new index. The data (predicted feature image) is integrated and updated.
他方、ステップS209で最大ユークリッド距離が判定値外と判定された場合はステップS211に進む。 On the other hand, if it is determined in step S209 that the maximum Euclidean distance is outside the determination value, the process proceeds to step S211.
ステップS211では、各指標データ(予測特徴画像)がいずれの撮像画像に同類対応するかを検索する。ステップS212において、いずれの撮像画像にも同類対応しない無対応指標データ(予測特徴画像)であると判定されたものがあった場合、それらの無対応指標データ(予測特徴画像)はステップS213で全て削除される。他方、ステップS212で無対応指標データ(予測特徴画像)と判定されたものがなかった場合は、有効な指標データ(予測特徴画像)のみ存在しているという結論をもって一連の処理が終了する。 In step S211, a search is made as to which captured image corresponds to each index data (predicted feature image). If it is determined in step S212 that there is non-corresponding index data (predicted feature image) that does not correspond to any captured image in the same manner, all of the non-corresponding index data (predicted feature image) is determined in step S213. Deleted. On the other hand, if there is no data determined as non-corresponding index data (predicted feature image) in step S212, a series of processing ends with a conclusion that only valid index data (predicted feature image) exists.
以上のように分析すべき各撮像画像は、近似範囲内の指標データ(予測特徴画像)に、且つ所定の近似度以上に分散して存在する指標データ(予測特徴画像)グループに過不足なく分類仕分けされることになる。また、これらの処理結果を保存するについては、前記の特徴抽出演算された詳細な画像データである代表画像としての各予測特徴画像と、これら各々に同類分類された撮像画像の照合データを保存する。予測特徴画像は撮像のままの画像も含むが、加工され圧縮されたデータである場合もあるので、さらに特徴抽出装置1は、図示はしないが、各予測特徴画像とのユークリッド距離が最小である撮像画像のカメラ画像データを代表実画像として併せて記憶保存する構成となっている。 Each captured image to be analyzed as described above is classified into index data (predicted feature image) within an approximate range and index data (predicted feature image) groups that are distributed more than a predetermined degree of approximation without excess or deficiency. It will be sorted. In addition, for storing these processing results, each predicted feature image as a representative image, which is the detailed image data obtained by the feature extraction calculation, and collation data of captured images classified into the same category are stored. . Although the predicted feature image includes an image as it is captured, it may be processed and compressed data. Therefore, the feature extraction apparatus 1 has a minimum Euclidean distance from each predicted feature image, although not shown. The camera image data of the captured image is also stored and saved as a representative real image.
すなわち、予測特徴画像は各撮像画像から所定の演算精度で抽出分類された平均的な特徴を備えた代表画像ということになるのであるが、この代表画像に対応する詳細なカメラ画像データが代表実画像となる。このため、分類仕分けを別途任意選択で設定した圧縮画像データに基づき簡易に高速処理するにしても、詳細なカメラ画像データがそのまま代表実画像として保持されているので、分類仕分け画像を更に同類仕分け演算することとなった場合、各々の代表実画像データと照合データから得られる仕分け画像の数量情報をもって精度の高い特徴抽出を行うことが可能となる。 In other words, the predicted feature image is a representative image having an average feature extracted and classified from each captured image with a predetermined calculation accuracy. Detailed camera image data corresponding to this representative image is representative. It becomes an image. For this reason, even if high-speed processing is simply performed on the basis of compressed image data that is separately set with optional classification, detailed camera image data is retained as a representative real image as it is. When the calculation is to be performed, it is possible to perform feature extraction with high accuracy using the quantity information of the sorted images obtained from the respective representative real image data and the collation data.
また、上記の分類仕分け演算方式では演算開始時に分類すべき全撮像画像が存在していることが必要である。そこで、演算の負荷を軽減するため、多量の画像データを所定数量(例えば20〜200画像)に分割して演算処理する(以下「分割演算処理」の語を用いる)とともに、全ての分割演算処理の終了後、これら分割演算処理で得た各々の特徴画像に関して上記同様に更に同類仕分け処理を行うこととする。この同類仕分け処理には先の分割演算処理で得た予測特徴画像か、これら予測特徴画像の各々に対応する代表実画像データを選択的に使用する。最終的には別途任意に選択される圧縮精度の画像データに基づき全画像データの特徴を抽出する。 Further, in the above classification sorting calculation method, it is necessary that all captured images to be classified exist at the start of calculation. Therefore, in order to reduce the calculation load, a large amount of image data is divided into a predetermined number (for example, 20 to 200 images) and subjected to calculation processing (hereinafter referred to as “division calculation processing”), and all division calculation processing is performed. After completion of the above, similar sort processing is further performed in the same manner as described above for each feature image obtained by the division calculation processing. In the similar sort process, the predicted feature image obtained by the previous split calculation process or representative real image data corresponding to each of the predicted feature images is selectively used. Finally, the characteristics of all the image data are extracted based on image data with compression accuracy that is arbitrarily selected separately.
上記のように何巡かの比較(学習)を繰り返して複数個の予測特徴画像を確定し、且つ各々の値を収斂させる。これにより試料の特徴が明確化する。別の試料の特徴抽出を行うに際しては、別の試料から撮像した各々の波長帯域画像がこれらの予測特徴画像と同様の同類関係となるかどうか、必要個数のチェックを行う。 As described above, several comparisons (learning) are repeated to determine a plurality of predicted feature images and converge each value. This clarifies the characteristics of the sample. When performing feature extraction of another sample, the necessary number is checked to determine whether each wavelength band image captured from another sample has a similar relationship with these predicted feature images.
図26〜28に、画像群を同類分類した例を示す。図26には実際の試料を異なる波長で撮像した計13枚の画像が示されている。撮像した波長は図27、28に示すとおりである。演算を行ったところ、最初は図27のようにA〜Fのように6グループに分類されたが、次に画像一点の明るさを同レベル値にシフト補正して再度演算を行ったところ、今度は図28の如く目視での特徴抽出同様にA〜Dの4グループに分類された。 26 to 28 show examples in which image groups are classified into similar categories. FIG. 26 shows a total of 13 images obtained by imaging actual samples at different wavelengths. The captured wavelengths are as shown in FIGS. As a result of the calculation, it was first classified into 6 groups as A to F as shown in FIG. 27. Next, when the brightness of one point of the image was shift-corrected to the same level value and the calculation was performed again, This time, as shown in FIG. 28, the groups were classified into four groups A to D as in the case of visual feature extraction.
ここで取得画像に明るさの基準点を設け、各画像の明暗両基準点の明度レベル値を合わせる画像補正を施すこととすれば、更に人の目視での特徴確認とほぼ同等に特徴把握と同類分類が可能となる。 Here, if a reference point of brightness is provided in the acquired image and image correction is performed to match the brightness level values of the light and dark reference points of each image, it is possible to understand the feature almost as much as human visual feature confirmation. Similar classification is possible.
画像データから試料の特徴を求めるのに、全画素データを用いない方法もある。その方法の一例を図29に示す。ここではまず画像を2値化する。そしてピクセルのマトリックスの行単位と列単位でそれぞれ黒像(又は白像)のピクセルが何個あるかを調べ、各行各列の個数データをもって特徴とするものである。2値化でなくグレイスケールとして行単位、列単位で各々ピクセルのデータ量を加重し、各行各列の加算値又は平均値をもって特徴パターンを得てもよい。また、全画素を所定個数ずつブロック化し、そのブロックの平均値をとった圧縮画像を用いてもよい。 There is also a method that does not use all pixel data to determine the characteristics of a sample from image data. An example of the method is shown in FIG. Here, first, the image is binarized. Then, the number of black image (or white image) pixels in each row and column of the pixel matrix is examined, and the number data of each row and column is used as a feature. Instead of binarization, the data amount of each pixel may be weighted as a gray scale in units of rows and columns, and the feature pattern may be obtained by the addition value or the average value of each row and column. Alternatively, a predetermined number of blocks of all pixels may be used, and a compressed image obtained by taking the average value of the blocks may be used.
なお代表画像を求めるにあたり、上述のように第1の方法としては逐次比較演算の手法があり、第2の方法としては自己組織化特徴地図の手法を応用したものとがあるが、両者は随時選択して使用できるようにしてもよいし、何れか一方のみ実施するようにしてもよい。 In obtaining a representative image, as described above, the first method includes a sequential comparison calculation method, and the second method applies a self-organizing feature map method. It may be selected and used, or only one of them may be implemented.
なお上記説明では試料の紙面全域画像を対象にしたが、紙面全域でなく限定領域面での各検査波長光に対する光学特性の撮像画像としても、同様の構成で同様目的が達成できる。 In the above description, the entire image on the paper surface of the sample is targeted. However, the same object can be achieved with the same configuration even when the captured image has optical characteristics for each inspection wavelength light on the limited region surface instead of the entire paper surface.
以上本発明の各実施形態につき説明したが、発明の主旨を逸脱しない範囲でさらに種々の変更を加えて実施することができる。 Each embodiment of the present invention has been described above, but various modifications can be made without departing from the spirit of the present invention.
本発明は試料の表面を光学的に特性分析する特徴抽出方法に広く利用可能である。 The present invention can be widely used in a feature extraction method for optically analyzing the surface of a sample.
1 特徴抽出装置
2 本体部
3 演算装置
10 ハウジング
11 光学セクション
12 制御セクション
23 試料ホルダ
30 検査光発生装置
31 光源部
38 分光器
50 撮像装置
51 CCDカメラ
52 赤外線カメラ
57 分光器
58 バンドパスフィルタ
87 画像解析部
DESCRIPTION OF SYMBOLS 1 Feature extraction apparatus 2 Main body part 3 Arithmetic apparatus 10 Housing 11 Optical section 12 Control section 23 Sample holder 30 Inspection light generator 31 Light source part 38 Spectroscope 50 Imaging apparatus 51 CCD camera 52 Infrared camera 57 Spectroscope 58 Band pass filter 87 Image Analysis part
Claims (4)
同類分類処理の指標データとして予測特徴画像を複数個設定する第1ステップと、
前記複数の撮像画像の各々別に、前記複数個の予測特徴画像との近似度を比較しつつ最も近似する予測特徴画像を同類関係にあるとして当該撮像画像に近づくように順次修正する第2ステップと、
前記予測特徴画像の同類撮像画像への修正を前回より小さくして前記第2ステップを繰り返し実施させることにより、各々の特徴画像を同類関係にある撮像画像の代表画像として次第に収斂させる第3ステップと、
を含むことを特徴とする特徴抽出方法。 The sample is selectively irradiated with light in the wavelength range from the ultraviolet region to the near-infrared region, and all the wavelength region light or multiple wavelength band light having different center wavelengths as inspection light, and each of the irradiated inspection lights In contrast, a method of obtaining a plurality of captured images by sequentially capturing light from the sample for each of predetermined wavelength bands having different center wavelengths, and extracting optical characteristics of the sample from these captured images, ,
A first step of setting a plurality of predicted feature images as index data for the similar classification process;
A second step of sequentially correcting each of the plurality of captured images so as to approach the captured image by assuming that the most similar predicted feature image has a similar relationship while comparing the degree of approximation with the plurality of predicted feature images; ,
A third step of gradually converging each feature image as a representative image of a similar captured image by making the correction of the predicted feature image to the similar captured image smaller than the previous step and repeatedly performing the second step; ,
A feature extraction method characterized by comprising:
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008075180A JP4936074B2 (en) | 2008-03-24 | 2008-03-24 | Feature extraction method |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2008075180A JP4936074B2 (en) | 2008-03-24 | 2008-03-24 | Feature extraction method |
Related Parent Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2002112289A Division JP4123469B2 (en) | 2002-04-15 | 2002-04-15 | Feature extraction method |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2008181556A true JP2008181556A (en) | 2008-08-07 |
| JP4936074B2 JP4936074B2 (en) | 2012-05-23 |
Family
ID=39725339
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008075180A Expired - Fee Related JP4936074B2 (en) | 2008-03-24 | 2008-03-24 | Feature extraction method |
Country Status (1)
| Country | Link |
|---|---|
| JP (1) | JP4936074B2 (en) |
Cited By (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20230008295A (en) * | 2021-07-06 | 2023-01-16 | 한국기계연구원 | Motion assist system based on motion intention and method for motion assist using the same |
| CN117061879A (en) * | 2023-09-27 | 2023-11-14 | 武汉华工激光工程有限责任公司 | An automatic light intensity correction method, system and electronic equipment |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001229362A (en) * | 2000-02-17 | 2001-08-24 | Nippon Telegr & Teleph Corp <Ntt> | Information clustering device and recording medium recording information clustering program |
| JP2001283184A (en) * | 2000-03-29 | 2001-10-12 | Matsushita Electric Ind Co Ltd | Clustering device |
| JP2002048719A (en) * | 2000-08-07 | 2002-02-15 | Glory Ltd | Optical judgment device |
-
2008
- 2008-03-24 JP JP2008075180A patent/JP4936074B2/en not_active Expired - Fee Related
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2001229362A (en) * | 2000-02-17 | 2001-08-24 | Nippon Telegr & Teleph Corp <Ntt> | Information clustering device and recording medium recording information clustering program |
| JP2001283184A (en) * | 2000-03-29 | 2001-10-12 | Matsushita Electric Ind Co Ltd | Clustering device |
| JP2002048719A (en) * | 2000-08-07 | 2002-02-15 | Glory Ltd | Optical judgment device |
Cited By (4)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| KR20230008295A (en) * | 2021-07-06 | 2023-01-16 | 한국기계연구원 | Motion assist system based on motion intention and method for motion assist using the same |
| KR102680129B1 (en) * | 2021-07-06 | 2024-07-03 | 한국기계연구원 | Motion assist system based on motion intention and method for motion assist using the same |
| CN117061879A (en) * | 2023-09-27 | 2023-11-14 | 武汉华工激光工程有限责任公司 | An automatic light intensity correction method, system and electronic equipment |
| CN117061879B (en) * | 2023-09-27 | 2023-12-19 | 武汉华工激光工程有限责任公司 | Automatic light quantity correction method and system and electronic equipment |
Also Published As
| Publication number | Publication date |
|---|---|
| JP4936074B2 (en) | 2012-05-23 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN101583979B (en) | Method for detecting soiling and/or color wear in areas of color transitions on documents of value and device for carrying out the method | |
| JP6959614B2 (en) | Analyzer and flow cytometer | |
| US20050100204A1 (en) | Method and apparatus for detecting fluorescent particles contained in a substrate | |
| JP2000508095A (en) | Boundary mapping system and method | |
| US20080266430A1 (en) | Method and system for optimizing an image for improved analysis of material and illumination image features | |
| JP2006524378A (en) | Method for qualitative determination of a material having at least one recognition characteristic | |
| CN102803929B (en) | multispectral scanning system | |
| JP2010091470A (en) | System and method of measuring gas concentration by electronic image colorimetric method | |
| WO2011126411A9 (en) | Method for processing bank notes (variants) | |
| JP2022533623A (en) | METAL POWDER ANALYZING METHOD AND APPARATUS | |
| US20190114762A1 (en) | Computer-Controlled 3D Analysis Of Collectible Objects | |
| JP4123469B2 (en) | Feature extraction method | |
| EP1324283A1 (en) | Document authenticity discriminating apparatus and method therefor | |
| CN119152371A (en) | Early prostate tumor identification method based on hyperspectral image | |
| US10664713B2 (en) | Method and system for acquiring and analysing fingerprints with fraud detection | |
| JP7702480B2 (en) | Method and apparatus for identifying characteristics of trading cards | |
| JP4936074B2 (en) | Feature extraction method | |
| JP2008542800A (en) | Method and apparatus for scanning a sample by evaluating contrast | |
| JP3178017B2 (en) | Melon appearance evaluation device | |
| JP2003279503A (en) | X-ray inspection equipment | |
| US12475555B2 (en) | Artificial intelligence-based hyperspectrally resolved detection of anomalous cells | |
| JP4247362B2 (en) | Feature extraction device | |
| JP2008014652A (en) | Foreign matter inspection apparatus, foreign matter inspection method, program, and recording medium | |
| JP3963826B2 (en) | Document authenticity discrimination apparatus and method | |
| CN114441444A (en) | A fusion sorting method based on multi-band multiplexing |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080410 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080527 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110310 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110607 |
|
| A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110801 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120207 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120208 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
| R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
| LAPS | Cancellation because of no payment of annual fees |