JP6979694B2 - Authentication system, authentication method and authentication program that authenticates hidden images or hidden information - Google Patents
Authentication system, authentication method and authentication program that authenticates hidden images or hidden information Download PDFInfo
- Publication number
- JP6979694B2 JP6979694B2 JP2018054155A JP2018054155A JP6979694B2 JP 6979694 B2 JP6979694 B2 JP 6979694B2 JP 2018054155 A JP2018054155 A JP 2018054155A JP 2018054155 A JP2018054155 A JP 2018054155A JP 6979694 B2 JP6979694 B2 JP 6979694B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- pixel
- hidden
- authentication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Character Discrimination (AREA)
- Facsimile Transmission Control (AREA)
- Editing Of Facsimile Originals (AREA)
- Credit Cards Or The Like (AREA)
- Printing Methods (AREA)
- Inspection Of Paper Currency And Valuable Securities (AREA)
- Character Input (AREA)
- Image Processing (AREA)
Description
本発明は、印刷物に印刷された隠蔽画像又は隠蔽情報から抽出した情報と真正情報とを照合することによって、隠蔽画像又は隠蔽情報を認証する認証システム、認証方法及び認証用プログラムに関する。 The present invention relates to an authentication system, an authentication method, and an authentication program for authenticating a hidden image or hidden information by collating the information extracted from the hidden image or hidden information printed on the printed matter with the genuine information.
近年、銀行券、有価証券及び通行券などの貴重印刷物や、運転免許証、パスポート、保険証など個人を認証する証明証書には、第三者に偽造及び改ざんされないために常に新たな偽造防止のための不可視情報(偽造防止用の隠蔽画像又は隠蔽情報)が、盛り込まれることが要求されている。このため、特許第4649658号公報(特許文献1)には、上述のような不可視情報を読み取ることができる認証システムが開示されている。特許文献1に開示された認証システムの構成を図1に示す。
In recent years, valuable printed materials such as banknotes, securities and toll tickets, and certificates that authenticate individuals such as driver's licenses, passports and insurance certificates have always been newly prevented from being forged or tampered with by third parties. It is required to include invisible information (hidden image or hidden information for anti-counterfeiting) for the purpose. Therefore, Japanese Patent No. 4649658 (Patent Document 1) discloses an authentication system capable of reading invisible information as described above. FIG. 1 shows the configuration of the authentication system disclosed in
また、特許文献1に開示された認証システムを備えた画像読取装置100は、赤外線吸収をしない領域と赤外線を吸収する領域(IR画像、又は埋め込み画像という。)とで構成された「網点印刷物」105を読み込む場合には、照明部104で網点印刷物105を照らし、IR領域に感度を持った撮像部(カメラ)103を用いて撮影する。そして、認証端末102の表示モニターによって、観察者は埋め込まれた模様を肉眼で確認する技術が開示されている。
Further, the
なお、特許文献1には、IR画像については、真正画像とマッチングできるように画像処理(ハートレー変換)を行うこと、また、QRコード(登録商標)の情報が埋め込まれたIR画像に対して階調変換を行った後、個人情報等の隠蔽情報を抽出することが開示されている。
In
次に、特開平9−147178号公報(特許文献2)には、潜像を有する複写防止模様が印刷された印刷物において、CCDカメラ又は光学式スキャナを用いて画像として入力した複写防止模様に対して所定の画像処理(2値化処理、画像の膨張処理、膨張を行ったときと同じ量の収縮処理)を行うことによって、潜像が顕著な連結成分となった2値化画像を認識し、真正画像と照合することにより真偽を判定する印刷物の読み取り検査方法及びその装置が開示されている。 Next, Japanese Patent Application Laid-Open No. 9-147178 (Patent Document 2) describes a copy-prevention pattern input as an image using a CCD camera or an optical scanner in a printed matter on which a copy-prevention pattern having a latent image is printed. By performing predetermined image processing (binarization processing, image expansion processing, contraction processing of the same amount as when expansion is performed), a binarized image in which a latent image is a prominent connecting component is recognized. , A method for reading and inspecting a printed matter for determining authenticity by collating with a genuine image and an apparatus thereof are disclosed.
従来、印刷物の真偽判定において、磁性インキ、赤外線反射吸収インキ、蛍光インキ等の機能性インキや、印刷媒体を形成する繊維、材質、薬品類等による素材を検知するといった材料適性に依存したものであったが、特許文献2に開示された印刷物の読み取り検査方法では、一般的に用いられている印刷用インキに適用可能な印刷材料で印刷された模様を光学的に読み取ることができる。
Conventionally, in authenticity determination of printed matter, it depends on material suitability such as detecting functional inks such as magnetic inks, infrared reflection absorbing inks, fluorescent inks, and materials made of fibers, materials, chemicals, etc. that form a printing medium. However, in the read inspection method for printed matter disclosed in
次に、特開2008−152450号公報(特許文献3)には、潜像模様のエッジ画像に対して、膨張演算および収縮演算を行なうことにより万線パターンを連結領域として抽出することによって、連結領域の大きさと位置情報を求めることができる。そして、連結領域の大きさと位置情報をあらかじめ設定された基準値と比較することにより、潜像模様を有した紙葉類の真偽を判別する紙葉類の真偽判別装置及び紙葉類の真偽判別方法が開示されている。 Next, Japanese Patent Application Laid-Open No. 2008-152450 (Patent Document 3) concatenates an edge image of a latent image pattern by extracting a perimeter pattern as a concatenated region by performing expansion and contraction calculations. The size of the area and the position information can be obtained. Then, by comparing the size and position information of the connecting region with the preset reference values, the authenticity determination device for the paper sheets and the paper leaves that determine the authenticity of the paper leaves having a latent image pattern. The authenticity discrimination method is disclosed.
また、特許文献3に開示された真偽判別可能な方法及びその装置は、紙葉類が傾斜していても、万線パターン領域の両端部の領域で万線方向への射影を取ることによって、両端部での万線の位置を検出することができるので、当該紙葉類から明暗万線パターンを傾斜角度によらず高精度でかつ効率的に抽出することができる。
Further, the authenticity discriminating method and its apparatus disclosed in
次に、木内正人、木内進、「位相変調模様における可視画像領域の発見とその活用」、印刷学会誌、社団法人日本印刷学会、2011年11月、第48巻、第5号、p.325−334(非特許文献1)には、セキュリティ性が求められる印刷物(以下、「セキュリティ印刷物」という。)の印刷領域において、不可視画像領域と可視画像領域とを配置し、不可視画像領域は潜像部と背景部とで構成することができる。その構成によって、豊かなデザイン性と不可視画像発現時の明りょうなスイッチ効果とを、セキュリティ印刷物に付与することが開示されている。 Next, Masato Kiuchi, Susumu Kiuchi, "Discovery and Utilization of Visible Image Regions in Phase Modulation Patterns", Journal of the Printing Society, Japan Printing Society, November 2011, Vol. 48, No. 5, p.325 In −334 (Non-Patent Document 1), an invisible image area and a visible image area are arranged in a printed matter (hereinafter referred to as “security printed matter”) for which security is required, and the invisible image area is a latent image. It can be composed of a part and a background part. It is disclosed that the configuration imparts rich design and a clear switch effect when an invisible image appears to a security printed matter.
また、不可視画像領域の秘匿性については、非特許文献1には、潜像部を構成する画線Aと、背景部を構成する画線A’とが、互いに明暗状態を相殺することによって、埋め込まれている潜像は、観察者によって認識されることはなく、観察者はデザイン性のある可視画像のみを視認することができることが開示されている。
Regarding the confidentiality of the invisible image region, Non-Patent
ここで、印刷物の印刷領域に判別具(例えば、レンチキュラーレンズ)を重ね合わせることにより、不可視画像を容易に発現(顕在化)させて、真偽性を判別する原理について、図2を用いて詳しく説明する。 Here, the principle of easily expressing (exposing) an invisible image by superimposing a discriminator (for example, a lenticular lens) on the printed area of the printed matter and discriminating the authenticity will be described in detail with reference to FIG. explain.
先ず、図2に印刷領域の拡大図を示す。図2に示すように、印刷領域には潜像部とも呼ばれる画線A、背景部とも呼ばれる画線A’で構成された領域がある。また、画線Aと画線A’との間には、可視画像領域と呼ばれる領域Cが存在するため、通常、観察者から見える図柄となる。 First, FIG. 2 shows an enlarged view of the print area. As shown in FIG. 2, the print area has an area composed of an image line A, which is also called a latent image portion, and an image line A', which is also called a background portion. Further, since a region C called a visible image region exists between the image line A and the image line A', the pattern is usually visible to the observer.
また、図2に示すように、画線A同士は、間隔Sv離れて平行に配置されており、不可視画像領域を形成している。画線A’同士の間隔も画線Aと同じで、画線A’同士も不可視画像領域を形成している。 Further, as shown in FIG. 2, the image lines A are arranged in parallel at intervals Sv, forming an invisible image region. The distance between the image lines A'is the same as that of the image line A, and the image lines A'also form an invisible image region.
図2に示すように、画線A、画線C、画線A’及び画線Cを組合せた領域は、間隔(ピッチ)Svで繰り返される。その組合せ領域は最小単位領域である。 As shown in FIG. 2, the region in which the image line A, the image line C, the image line A'and the image line C are combined is repeated at the interval (pitch) Sv. The combination area is the smallest unit area.
そして、画線Aと画線A’の各面積は、同一又は略同一であり、画線Aの明度と画線A’の明度とは、一方が明るいと他方は暗いという相補的な関係(明暗関係)にあり、明るさを相殺するように設計されている。このため、画線A及び画線A’によって形成された画像が、観測者によって容易に視認されることはない。その結果、潜像(不可視画像)を、印刷領域に隠蔽することができる。 The areas of the image line A and the image line A'are the same or substantially the same, and the brightness of the image line A and the brightness of the image line A'are complementary in that one is bright and the other is dark. It is in a light-dark relationship) and is designed to offset the brightness. Therefore, the image formed by the image line A and the image line A'is not easily visually recognized by the observer. As a result, the latent image (invisible image) can be hidden in the print area.
通常の観察時には、美術的な模様を可視画像領域(領域C)に配置することによって、印刷物のデザイン性(美観)が向上する効果を得られるが、判別具(例えば、レンチキュラーレンズ、万線シート)を用いて、画線A(潜像部)又は画線A’(背景部)の一方のみを顕在化(可視化)することによって、観察者が不可視画像を視認することができる。 During normal observation, by arranging the artistic pattern in the visible image area (area C), the effect of improving the design (aesthetics) of the printed matter can be obtained. ) Is used to reveal (visualize) only one of the image line A (latent image portion) and the image line A'(background portion) so that the observer can visually recognize the invisible image.
例えば、図2に示すように、レンチキュラーレンズ8の中心位置(線)を、画線Aの中心線L1に重ね合せると、観察者は、画線A(潜像部)をポジ画像として視認することができる。同様に、レンチキュラーレンズ8の中心位置(線)を、画線A’の中心線L2に重ね合せると、観察者は、画線A’(背景部)を潜像部に対するネガ画像として視認することができる。
For example, as shown in FIG. 2, when the center position (line) of the
さらに、判別具を回転させることによって、画線A又は画線A’によらない異なる不可視画像を顕在化するようなことが可能である。 Further, by rotating the discriminator, it is possible to reveal different invisible images that do not depend on the image line A or the image line A'.
そこで、画線A又は画線A’と90°方向が異なる、画線B及びB’を印刷領域に配置した印刷領域の拡大図を図3に示す。図3に示すように、印刷領域には、画線B同士は間隔Sh離れて平行に配置されており、不可視画像領域を形成している。画線B’同士の間隔も画線Bと同じで、画線B’同士も不可視画像領域を形成している。 Therefore, FIG. 3 shows an enlarged view of a print area in which the image lines B and B'are 90 ° different from the image line A or the image line A', and the image lines B and B'are arranged in the print area. As shown in FIG. 3, in the print area, the image lines B are arranged in parallel at intervals of Sh, forming an invisible image area. The distance between the image lines B'is the same as that of the image line B, and the image lines B'also form an invisible image region.
図3に示すように、画線B、画線C、画線B’及び画線Cを組合せた領域は、間隔(ピッチ)Shで繰り返される。その組合せ領域は、最小単位領域である。 As shown in FIG. 3, the region where the image line B, the image line C, the image line B'and the image line C are combined is repeated at the interval (pitch) Sh. The combination area is the smallest unit area.
図2で説明したことと同様に、図3に示すように、レンチキュラーレンズ8の中心位置(線)を、画線Bの中心線L3に重ね合せると、観察者によって画線B(潜像部)はポジ画像として視認することができる。同様に、レンチキュラーレンズ8の中心位置(線)を、画線B’に中心線L4に重ね合せると、観察者は、画線B’(背景部)を潜像部に対してネガ画像として視認することができる。
As shown in FIG. 3, when the center position (line) of the
さらに、画線A、画線A’、画線B及び画線B’を印刷領域に混在させることによって、印刷領域に印刷された潜像部及び背景部を多方向化することができる。そして、潜像を多方向化した印刷領域に対して、判定具の方向を変えることによって、顕在化する潜像を、すなわち視認される画像を劇的に切り替えることができると考えられる。 Further, by mixing the image line A, the image line A', the image line B, and the image line B'in the print area, the latent image portion and the background portion printed in the print area can be made multi-directional. Then, it is considered that the latent image to be manifested, that is, the image to be visually recognized can be dramatically switched by changing the direction of the determination tool with respect to the printed area in which the latent image is multidirectional.
潜像部及び背景部を多方向化(2方向化)した印刷領域の一例として、図2に示した印刷領域と図3に示した印刷領域とを混在させたような印刷領域の拡大図を、図4に示す。図4における、画線Aと画線A’とは間隔Sv/2離れて平行に配置され、画線Bと画線B’とは、は間隔Sh/2離れて平行に配置され、画線A、画線A’、画線B及び画線B’を除いた印刷領域に可視画像領域Dが形成されている。図示していないが、画線A同士は、間隔Sv離れて平行に配置されており、画線B同士は、間隔Sh離れて平行に配置されている。画線A’同士、及び画線B’同士も同様である。 As an example of a print area in which the latent image portion and the background portion are multidirectional (bidirectional), an enlarged view of the print area in which the print area shown in FIG. 2 and the print area shown in FIG. 3 are mixed is shown. , FIG. 4. In FIG. 4, the image line A and the image line A'are arranged in parallel at a distance of Sv / 2, and the image line B and the image line B'are arranged in parallel at a distance of Sh / 2. The visible image area D is formed in the print area excluding A, the image line A', the image line B, and the image line B'. Although not shown, the image lines A are arranged in parallel at a distance of Sv, and the image lines B are arranged in parallel at a distance of Sh. The same applies to the drawing lines A'and the drawing lines B'.
印刷領域をこのように構成すると、図4に示すように、レンチキュラーレンズ8の中心位置(線)を横方向に中心線L1、L2に重ね合せると、観察者によってそれぞれ画線A(潜像部)はポジ画像として、画線A’(背景部)は潜像部に対してネガ画像として視認することができる。
When the print area is configured in this way, as shown in FIG. 4, when the center position (line) of the
同様に、レンチキュラーレンズ8の中心位置(線)を縦方向に中心線L3、L4に重ね合せると、観察者は、それぞれ画線B(潜像部)はポジ画像として、画線B’(背景部)を潜像部に対してネガ画像として視認することができる。すなわち、レンチキュラーレンズ8を縦置きと横置きとを切り替えることによって、復号化される不可視画像を劇的にスイッチングすることができるという効果(画像のスイッチ効果)を奏する。
Similarly, when the center position (line) of the
また、生源寺類、「チェッカーパターンキャリアスクリーン画像における誤差拡散法による部分的潜在化」,情報処理学会インストラクション2015,pp.753−758(非特許文献2)には、秘密画像の各画素を2種類のチェッカーパターンに置き換え、秘密画像をチェッカーパターンキャリアスクリーン画像に変換する技術が開示されている。この変換の結果、チェッカーパターンキャリアスクリーン画像の画素数は、秘密画像の4倍(2×2倍に等しいこと)になる。 In addition, Hieizan-ji, "Partial latentization by error diffusion method in checker pattern carrier screen image", IPSJ Instruction 2015, pp. 753-758 (Non-Patent Document 2) discloses a technique of replacing each pixel of a secret image with two types of checker patterns and converting the secret image into a checker pattern carrier screen image. As a result of this conversion, the number of pixels of the checker pattern carrier screen image becomes four times (equal to 2 × 2 times) that of the secret image.
そして、非特許文献2には、チェッカーパターンキャリアスクリーン画像を市販のデジタルカメラを用いたサンプリング処理をすることによって復号することができること、すなわち、デジタルカメラの液晶ファインダによって、チェッカーパターンキャリアスクリーン画像を縮小表示するために、キャリアスクリーン画像が再サンプリングされる過程が、秘密画像の復号処理に利用することができることが開示されている。
In
ここで、秘密画像を、チェッカーパターンキャリアスクリーン画像への変換処理を行うことよって、潜在化(潜像化)をする技術を説明する。 Here, a technique for making a secret image latent (latent image) by converting it into a checkered pattern carrier screen image will be described.
先ず、秘密画像のチェッカーパターンキャリアスクリーン画像への変換処理は、図5及び図6に示すように、各画素を互いに異なる2×2画素のチェッカーパターンに変換する処理である。 First, the process of converting the secret image into the checker pattern carrier screen image is a process of converting each pixel into a checker pattern of 2 × 2 pixels different from each other, as shown in FIGS. 5 and 6.
ここで、チェッカーキャリアパターン画像におけるチェッカーパターンの配置については、その中心から見て、左下、右下、左上及び右上の位置を(0,0)、(1,0)、(0,1)及び(1,1)とする。 Here, regarding the arrangement of the checker pattern in the checker carrier pattern image, the positions of the lower left, the lower right, the upper left and the upper right are (0,0), (1,0), (0,1) and the positions of the lower left, the lower right, the upper left and the upper right when viewed from the center. Let it be (1,1).
変換方法については、例えば、図5のように、変換する秘密画像の画素が白であれば、その画素は、チェッカーパターン画素の(0,0)及び(1,1)の位置には黒画素、並びに(1,0)及び(0,1)の位置には白画素が配置された2×2サイズのチェッカーパターンに置き換えられる。 Regarding the conversion method, for example, as shown in FIG. 5, if the pixel of the secret image to be converted is white, the pixel is a black pixel at the position (0,0) and (1,1) of the checker pattern pixel. , And the positions (1,0) and (0,1) are replaced with a 2 × 2 size checker pattern in which white pixels are arranged.
一方、図6のように、変換する秘密画像の画素が黒であれば、その画素は、(0,0)及び(1,1)の位置には白画素、並びに(1,0)及び(0,1)の位置には黒画素が配置された2×2サイズのチェッカーパターンに置き換えられる。このような変換においては、チェッカーパターンキャリアスクリーン画像の黒画素及び白画素が同一である2×2画素のチェッカーパターンに置き換えた為、明度差が現れないという特長を示す。この特長のため、観察者は、チェッカーパターンキャリアスクリーン画像を容易に視認することができない。
On the other hand, if the pixel of the secret image to be converted is black as shown in FIG. 6, the pixel is a white pixel at the positions (0,0) and (1,1), and (1,0) and ( It is replaced with a 2 × 2 size checker pattern in which black pixels are arranged at
次に、変換後のチェッカーパターンキャリアスクリーン画像に対して、画素を間引く処理(縮小処理)をすることによって、秘密画像を復号化することができることを説示する。なお、所定の比率で画素を間引く処理が、画像を縮小する処理である。 Next, it is explained that the secret image can be decoded by performing the process of thinning out the pixels (reduction process) on the checker pattern carrier screen image after conversion. The process of thinning out the pixels at a predetermined ratio is the process of reducing the image.
先ず、チェッカーパターンキャリアスクリーン画像に対して、チェッカーパターンの(0,1)又は(1,0)に位置する画素を選択して表示すれば、秘密画像の白画素は、元通り白画素が復号化されて表示され、同様に秘密画像の黒画素は、元通り黒画素が復号化されて表示される。こうして、秘密画像(ポジ画像)が復号化される。 First, if the pixels located at (0,1) or (1,0) of the checker pattern are selected and displayed with respect to the checker pattern carrier screen image, the white pixels of the secret image are decoded by the white pixels as before. Similarly, the black pixels of the secret image are displayed after being decoded. In this way, the secret image (positive image) is decoded.
一方、変換されたチェッカーパターンキャリアスクリーン画像に対して、チェッカーパターンの(0,0)又は(1,1)に位置する画素を選択して表示すれば、秘密画像の白画素は、反転して、黒画素が選択されて表示され、同様に秘密画像の黒画素は、反転して、白画素が選択されて表示される。こうして、秘密画像の白黒反転画像(ネガ画像)が復号化される。 On the other hand, if the pixels located at (0,0) or (1,1) of the checker pattern are selected and displayed with respect to the converted checker pattern carrier screen image, the white pixels of the secret image are inverted. , The black pixel is selected and displayed, and similarly, the black pixel of the secret image is inverted and the white pixel is selected and displayed. In this way, the black-and-white inverted image (negative image) of the secret image is decoded.
具体的な文字キャラクタ(‘A’、'B')を秘密画像として、チェッカーパターンに変換し、2×2サイズのチェッカーパターンの(0,1)又は(0,1)に相当する画素を選択して、秘密画像(ポジ画像)を復号化して、表示した例を図7及び図8に示す。 A specific character character ('A','B') is converted into a checker pattern as a secret image, and pixels corresponding to (0, 1) or (0, 1) of a 2 × 2 size checker pattern are selected. Then, a secret image (positive image) is decoded and displayed as an example is shown in FIGS. 7 and 8.
特許文献1に開示された認証システムは、IR領域に感度を持ったカメラを用いて、不可視情報を読み取らねばならず、例えば、市販のデジタルカメラを用いて、不可視情報を読み取ることはできない。
The authentication system disclosed in
また、認証用隠蔽画像及び情報は、認証用図柄の印刷によってのみ埋め込まれているため、ICチップを備えた証明証書の情報と同時に照合するようなことができない。 Further, since the hidden image and information for authentication are embedded only by printing the symbol for authentication, they cannot be collated at the same time as the information of the certificate provided with the IC chip.
次に、特許文献2に開示された印刷物の読み取り検査方法及びその装置では、入力して得た複写防止模様に対して、複雑な画像処理(2値化、画像の膨張、膨張を行ったときと同じ量の収縮)を行うことが必要になる。また、扱う複写防止模様(潜像を施した部分)は、二本線以上で一組となっている画線で構成されているため、判別具によって簡便に真偽を判定できないものである。
Next, in the read inspection method for printed matter disclosed in
次に、特許文献3に開示された、紙葉類の真偽判別装置及び紙葉類の真偽判別方法で扱う潜像模様は、特殊な角度から目視されたときに文字や図柄が確認できるようなものである。
Next, in the latent image pattern handled by the paper leaf authenticity discrimination device and the paper leaf authenticity discrimination method disclosed in
また、非特許文献1に開示されたセキュリティ印刷物及びその真偽判定方法では、観察者が判定具を用いた視認によって真偽判定するので、大量かつ高速に真偽判別を行なうことは困難である。
Further, in the security printed matter disclosed in
次に、非特許文献2では、チェッカーパターンキャリアスクリーン画像を用いた潜像技術に対して、一般的なコンパクトデジタルカメラを用いて、撮影距離、角度等を調節することにより、その秘密画像を復号する手法が開示されているが、復号化した画像は、著しい縞模様が伴っている。そのような縞模様が、秘密画像の各文字領域と背景領域との分離に対する障害となっている。そのような縞模様が、各文字領域を連結領域(連結成分)として認識して、文字パターンと比較し、パターンマッチング(パターン認識)を行うという一連の処理を行うことを非常に困難にしている。
Next, in
本発明は、上記事情に鑑み、市販の撮像装置(例えば、デジタルカメラ)を用いて撮影した画像(以下、原画像と称する)を、縮小処理の基準点を移動させながら縮小処理(間引き処理)を行うことによって、不可視画像を復号し、続いて可視画像との差分を取るような画像処理を施すことにより取得した差分画像によって、不可視画像の復号の際に縞模様(縞状模様)が生じるような場合であっても、文字領域を抽出しやすくし、容易にOCR処理を行うことができる認証システム、認証方法及び認証用プログラムを提供することを目的とする。 In view of the above circumstances, the present invention reduces an image (hereinafter referred to as an original image) taken by using a commercially available image pickup device (for example, a digital camera) while moving a reference point for the reduction process (thinning process). By performing image processing such as decoding an invisible image and then taking a difference from the visible image, a striped pattern (striped pattern) is generated when the invisible image is decoded. Even in such a case, it is an object of the present invention to provide an authentication system, an authentication method, and an authentication program capable of easily extracting a character area and easily performing OCR processing.
本発明に係る認証システムの上記目的は、可視情報又は可視画像が印刷された可視領域と、隠蔽画像又は隠蔽情報が印刷された潜像部及び背景部からなる不可視領域とで構成された印刷領域が配置された印刷物を撮影する画像取込部と、前記隠蔽画像又は前記隠蔽情報を認証する認証端末とを備える認証システムであって、前記画像取込部は、印刷物に光を照射する照明部と、前記印刷物を撮影して、前記印刷領域の原画像を取得する撮像部とを備え、前記認証端末は、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成し、前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成し、前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成し、前記差分画像データから背景領域と文字領域とを分離し、前記基準点を画素単位で、所定の方向にずらす処理を行い、前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行い、前記隠蔽画像又は前記隠蔽情報を認証することにより達成される。 The above object of the authentication system according to the present invention is a print area composed of a visible area on which a visible information or a visible image is printed and an invisible area consisting of a hidden image portion and a background portion on which a hidden image or the hidden information is printed. An image capture unit that includes an image capture unit that captures a printed matter in which the image is arranged, and an authentication terminal that authenticates the concealed image or the concealed information. The image capture unit is a lighting unit that irradiates the printed matter with light. And an image pickup unit that captures the printed matter and acquires the original image of the printed area, the authentication terminal is provided with a predetermined pixel in the captured image as a reference point, and the reference point is used as a reference. The original image is reduced at a predetermined reduction rate to generate a reduced image, and the reduced image is enlarged at a magnification that is the inverse of the reduction rate with the reference point as a reference, and the number of pixels of the original image. The same interpolation processing as is performed to generate an enlarged image, the operation of subtracting the brightness value of each pixel of the original image from the brightness value of each pixel of the enlarged image is performed, and the difference image data is generated to generate the difference. The background area and the character area are separated from the image data, the reference point is shifted in a predetermined direction in pixel units, the character area extracted from the difference image data is collated with the character pattern, and OCR is performed. Is performed, and the concealed image or the concealed information is authenticated.
また、本発明に係る認証システムの上記目的は、可視情報又は可視画像が印刷された可視領域と、隠蔽画像又は隠蔽情報が印刷された潜像部及び背景部からなる不可視領域とで構成された印刷領域が配置された印刷物を撮影する画像取込部と、前記隠蔽画像又は前記隠蔽情報を認証する認証端末とを備える認証システムであって、前記画像取込部は、印刷物に光を照射する照明部と、前記印刷物を撮影して、前記印刷領域の原画像を取得する撮像部とを備え、前記認証端末は、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成し、前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成し、前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成し、前記差分画像データをラベリング処理することによって、ラベル番号を生成し、前記差分画像データと1対1の対応が付けられるように、ラベル領域に前記ラベル番号を格納し、前記ラベル番号に基づいて、前記差分画像データから背景領域と文字領域とを分離し、前記基準点を画素単位で、所定の方向にずらす処理を行い、前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行い、前記隠蔽画像又は前記隠蔽情報を認証することにより達成される。 Further, the above object of the authentication system according to the present invention is composed of a visible region on which visible information or a visible image is printed, and an invisible region including a hidden image portion or a background portion on which a hidden image or hidden information is printed. An authentication system including an image capture unit that captures a printed matter in which a print area is arranged and an authentication terminal that authenticates the hidden image or the hidden information, and the image capture unit irradiates the printed matter with light. The authentication terminal includes an illumination unit and an image pickup unit that captures an image of the printed matter and acquires an original image of the print area. The authentication terminal is provided with a predetermined pixel in the captured image as a reference point, and the reference point is used as a reference point. The original image is reduced at a predetermined reduction rate to generate a reduced image, and the reduced image is enlarged at a magnification that is the inverse of the reduction rate with the reference point as a reference. An enlarged image is generated by performing an interpolation process that is the same as the number of pixels, and a calculation is performed in which the brightness value of each pixel of the original image is subtracted from the brightness value of each pixel of the enlarged image to generate difference image data. By labeling the difference image data, a label number is generated, the label number is stored in the label area so that a one-to-one correspondence with the difference image data can be attached, and the label number is stored based on the label number. The background area and the character area are separated from the difference image data, the reference point is shifted in a predetermined direction in pixel units, and the character area extracted from the difference image data and the character pattern are collated. , OCR and authenticate the concealed image or the concealed information.
また、本発明に係る認証システムの上記目的は、前記印刷領域には、所定の面積を有する最小単位領域が所定のピッチで複数配置され、前記最小単位領域は、第1の画線、第2の画線及び第3の画線が前記所定のピッチで配置され、前記第1の画線と前記第2の画線が存在しない領域に前記第3の画線が配置され、前記潜像部は前記第1の画線から構成され、前記背景部は前記第2の画線から構成され、前記可視領域は、前記第3の画線から構成され、前記第1の画線、前記第2の画線及び前記第3の画線は、直線状領域で、互いに平行となるように配置され、前記第1の画線と前記第2の画線とは、一方が光学的にオンの場合、他方がオフの関係、又は前記第1の画線の輝度値と前記第2の画線の輝度値との和が所定の輝度値となるような相補的な関係にあり、前記潜像部によりポジ画像が形成され、前記背景部により前記潜像部のネガ画像が形成されることにより、或いは前記最小単位領域の幅は、1mm以下であることにより、或いは前記第1の画線の面積と前記第2の画線の面積とが同一又は略同一であることにより、或いは前記基準点は、前記縮小処理の前後において、輝度値又は階調データが変わらない画素とすることにより、或いは前記印刷物は、周期的に並んだ点で構成されたパターンによる網点構成により、前記隠蔽画像又は前記隠蔽情報を付与されたことにより、或いは前記隠蔽情報が、肉眼では認知不可能なQRコード(登録商標)であることにより、或いは秘密画像が、前記不可視領域に埋め込まれ、前記秘密画像の画素が黒の場合、2行2列の第1のチェッカーパターンに変換され、前記秘密画像の画素が白の場合、前記第1のチェッカーパターンと白黒が反転する2行2列の第2のチェッカーパターンに変換され、前記隠蔽画像に変換されることより、或いは前記印刷物に埋め込まれたICチップからICリーダライタで読み取られた情報と、前記OCRにより前記文字領域に基づいて取得した前記隠蔽情報とを照合し、前記印刷物の真偽判定をすることにより、或いは前記撮像部がCCDラインセンサカメラ、又はCCDエリアセンサカメラであることにより、より効果的に達成される。 Further, the object of the authentication system according to the present invention is that a plurality of minimum unit areas having a predetermined area are arranged at a predetermined pitch in the print area, and the minimum unit area has a first image and a second image. The third image is arranged at the predetermined pitch, and the third image is arranged in a region where the first image and the second image do not exist. Is composed of the first image, the background portion is composed of the second image, the visible region is composed of the third image, the first image, and the second image. And the third image are arranged so as to be parallel to each other in a linear region, and when one of the first image and the second image is optically on. , The other is off, or there is a complementary relationship such that the sum of the brightness value of the first image line and the brightness value of the second image line becomes a predetermined brightness value, and the latent image unit The positive image is formed by the background portion, and the negative image of the latent image portion is formed by the background portion, or the width of the minimum unit region is 1 mm or less, or the area of the first image line. And the area of the second image is the same or substantially the same, or the reference point is a pixel whose brightness value or gradation data does not change before and after the reduction process, or the above. In the printed matter, the concealed image or the concealed information is given by the net dot composition by the pattern composed of the dots arranged periodically, or the concealed information is a QR code (registered) that cannot be recognized by the naked eye. By being (trademark), or when the secret image is embedded in the invisible region and the pixels of the secret image are black, it is converted into the first checker pattern of 2 rows and 2 columns, and the pixels of the secret image are white. In the case of, the first checker pattern and the black and white are inverted into the second checkered pattern of 2 rows and 2 columns, which is converted into the hidden image, or from the IC chip embedded in the printed matter to the IC reader. By collating the information read by the writer with the concealed information acquired based on the character area by the OCR and determining the authenticity of the printed matter, or by the image pickup unit being a CCD line sensor camera or a CCD. This is achieved more effectively by being an area sensor camera.
また、本発明に係る認証方法の上記目的は、可視情報又は可視画像が印刷された可視領域と、隠蔽画像又は隠蔽情報が印刷された潜像部及び背景部からなる不可視領域とで構成された印刷領域が配置された印刷物において、画像取込部及び認証端末を備える認証システムを用いて、前記隠蔽画像又は前記隠蔽情報を認証する認証方法であって、前記画像取込部を用いて、前記印刷物を撮影して、前記印刷領域の原画像を取得するステップと、前記認証端末を用いて、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成するステップと、前記認証端末を用いて、前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成するステップと、前記認証端末を用いて、前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成するステップと、前記認証端末を用いて、前記差分画像データから文字領域と前記文字領域以外の背景領域とを分離するステップと、前記認証端末を用いて、前記基準点を画素単位で、所定の方向にずらすステップと、前記認証端末を用いて、前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行うステップと、前記認証端末を用いて、前記OCRの結果に基づいて、前記隠蔽画像又は前記隠蔽情報を認証するステップと、から成ることにより達成される。 Further, the above object of the authentication method according to the present invention is composed of a visible region on which visible information or a visible image is printed, and an invisible region including a hidden image portion or a background portion on which a hidden image or hidden information is printed. It is an authentication method for authenticating the hidden image or the hidden information by using an authentication system including an image acquisition unit and an authentication terminal in a printed matter in which a print area is arranged, and the image acquisition unit is used to perform the above-mentioned. A step of photographing a printed matter and acquiring an original image of the print area, and using the authentication terminal, a predetermined pixel in the photographed image is provided as a reference point, and the original image is obtained with the reference point as a reference. Using the authentication terminal and a step of reducing the image at a predetermined reduction rate to generate a reduced image, the reduced image is enlarged at an enlargement rate that is the inverse of the reduction rate, with the reference point as a reference. Using the step of generating an enlarged image by performing an interpolation process that is the same as the number of pixels of the original image and the authentication terminal, the brightness value of each pixel of the original image is calculated from the brightness value of each pixel of the enlarged image. A step of performing a subtraction operation to generate a difference image data, a step of separating a character area and a background area other than the character area from the difference image data by using the authentication terminal, and a step of using the authentication terminal. A step of shifting the reference point in a predetermined direction on a pixel-by-pixel basis, a step of collating the character area extracted from the difference image data with a character pattern using the authentication terminal, and performing OCR, and the authentication. It is accomplished by comprising a step of authenticating the concealed image or the concealed information based on the result of the OCR using a terminal.
また、本発明に係る認証方法の上記目的は、可視情報又は可視画像が印刷された可視領域と、隠蔽画像又は隠蔽情報が印刷された潜像部及び背景部からなる不可視領域とで構成された印刷領域が配置された印刷物において、画像取込部及び認証端末を備える認証システムを用いて、前記隠蔽画像又は前記隠蔽情報を認証する認証方法であって、前記画像取込部を用いて、前記印刷物を撮影して、前記印刷領域の原画像を取得するステップと、前記認証端末を用いて、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成するステップと、前記認証端末を用いて、前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成するステップと、前記認証端末を用いて、前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成するステップと、前記認証端末を用いて、前記差分画像データをラベリング処理することによって、ラベル番号を生成するステップと、前記認証端末を用いて、前記差分画像データと1対1の対応が付けられるように、ラベル領域に前記ラベル番号を格納するステップと、前記認証端末を用いて、前記ラベル番号に基づいて、前記差分画像データから文字領域と前記文字領域以外の背景領域とを分離するステップと、前記認証端末を用いて、前記基準点を画素単位で、所定の方向にずらすステップと、前記認証端末を用いて、前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行うステップと、前記認証端末を用いて、前記OCRの結果に基づいて、前記隠蔽画像又は前記隠蔽情報を認証するステップと、から成ることにより達成される。 Further, the above object of the authentication method according to the present invention is composed of a visible region on which visible information or a visible image is printed, and an invisible region consisting of a hidden image portion or a background portion on which a hidden image or hidden information is printed. It is an authentication method for authenticating the concealed image or the concealed information by using an authentication system including an image capture unit and an authentication terminal in a printed matter in which a print area is arranged, and the image capture unit is used to perform the above-mentioned. Using the step of photographing a printed matter and acquiring the original image of the print area and the authentication terminal, a predetermined pixel in the photographed image is provided as a reference point, and the original image is obtained with the reference point as a reference. Using the authentication terminal and the step of reducing the image at a predetermined reduction rate to generate a reduced image, the reduced image is enlarged at an enlargement rate that is the inverse of the reduction rate, with the reference point as a reference. Using the step of generating an enlarged image by performing an interpolation process that is the same as the number of pixels of the original image and the authentication terminal, the brightness value of each pixel of the original image is calculated from the brightness value of each pixel of the enlarged image. A step of performing a deduction operation to generate a difference image data, a step of generating a label number by labeling the difference image data using the authentication terminal, and a step of generating the difference image using the authentication terminal. Using the step of storing the label number in the label area and the authentication terminal so that a one-to-one correspondence with the data can be attached, the character area and the character area from the difference image data based on the label number. The step of separating the background area other than the above, the step of shifting the reference point in a predetermined direction on a pixel-by-pixel basis using the authentication terminal, and the step of shifting the reference point in a predetermined direction using the authentication terminal, and the step of extracting from the difference image data using the authentication terminal. It is achieved by including a step of collating a character area and a character pattern and performing OCR, and a step of authenticating the hidden image or the hidden information based on the result of the OCR using the authentication terminal. To.
また、本発明に係る認証用プログラムの上記目的は、可視情報又は可視画像が印刷された可視領域と、隠蔽画像又は隠蔽情報が印刷された潜像部及び背景部からなる不可視領域とで構成された印刷領域が配置された印刷物において、前記隠蔽画像又は前記隠蔽情報の認証をコンピュータに実行させるための認証用プログラムであって、前記印刷物を撮影して、前記印刷領域の原画像を取得するステップと、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成するステップと、前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成するステップと、前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成するステップと、前記差分画像データから文字領域と前記文字領域以外の背景領域とを分離するステップと、前記基準点を画素単位で、所定の方向にずらすステップと、前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行うステップと、前記OCRの結果に基づいて、前記隠蔽画像又は前記隠蔽情報を認証するステップと、から成ることにより達成される。 Further, the above object of the authentication program according to the present invention is composed of a visible region on which visible information or a visible image is printed, and an invisible region including a hidden image or a hidden image portion and a background portion on which the hidden image or hidden information is printed. This is an authentication program for causing a computer to authenticate the hidden image or the hidden information in the printed matter in which the printed matter is arranged, and is a step of photographing the printed matter and acquiring the original image of the printed area. A step of providing a predetermined pixel in the captured image as a reference point, reducing the original image at a predetermined reduction rate with the reference point as a reference, and generating a reduced image, and using the reference point as a reference. A step of enlarging the reduced image at an enlargement ratio that is the inverse of the reduction ratio and performing an interpolation process that is the same as the number of pixels of the original image to generate an enlarged image, and a step of each pixel of the enlarged image. A step of generating a difference image data by performing an operation of subtracting the brightness value of each pixel of the original image from the brightness value, a step of separating a character area and a background area other than the character area from the difference image data, and the above-mentioned step. The step of shifting the reference point in a predetermined direction on a pixel-by-pixel basis, the step of collating the character area extracted from the difference image data with the character pattern and performing OCR, and the concealment based on the result of the OCR. It is accomplished by consisting of a step of authenticating the image or the concealed information.
また、本発明に係る認証用プログラムの上記目的は、可視情報又は可視画像が印刷された可視領域と、隠蔽画像又は隠蔽情報が印刷された潜像部及び背景部からなる不可視領域とで構成された印刷領域が配置された印刷物において、前記隠蔽画像又は前記隠蔽情報の認証をコンピュータに実行させるための認証用プログラムであって、前記印刷物を撮影して、前記印刷領域の原画像を取得するステップと、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成するステップと、前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成するステップと、前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成するステップと、前記差分画像データをラベリング処理することによって、ラベル番号を生成するステップと、前記差分画像データと1対1の対応が付けられるように、ラベル領域に前記ラベル番号を格納するステップと、前記ラベル番号に基づいて、前記差分画像データから文字領域と前記文字領域以外の背景領域とを分離するステップと、前記基準点を画素単位で、所定の方向にずらすステップと、前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行うステップと、前記OCRの結果に基づいて、前記隠蔽画像又は前記隠蔽情報を認証するステップと、から成ることにより達成される。 Further, the above object of the authentication program according to the present invention is composed of a visible region on which visible information or a visible image is printed, and an invisible region including a hidden image or a hidden image portion and a background portion on which the hidden image or hidden information is printed. This is an authentication program for causing a computer to authenticate the hidden image or the hidden information in the printed matter in which the printed matter is arranged, and is a step of photographing the printed matter and acquiring the original image of the printed area. A step of providing a predetermined pixel in the captured image as a reference point, reducing the original image at a predetermined reduction rate with the reference point as a reference, and generating a reduced image, and using the reference point as a reference. A step of enlarging the reduced image at an enlargement ratio that is the inverse of the reduction ratio and performing an interpolation process that is the same as the number of pixels of the original image to generate an enlarged image, and a step of each pixel of the enlarged image. A step of generating a difference image data by performing an operation of subtracting the brightness value of each pixel of the original image from the brightness value, a step of generating a label number by labeling the difference image data, and the difference image data. The step of storing the label number in the label area and the background area other than the character area are separated from the difference image data based on the label number so that a one-to-one correspondence with the image can be obtained. Based on the step, the step of shifting the reference point in pixel units in a predetermined direction, the step of collating the character area extracted from the difference image data with the character pattern, and performing OCR, and the result of the OCR. It is achieved by comprising the step of authenticating the concealed image or the concealed information.
本発明によれば、市販の撮像装置(例えば、デジタルカメラ)を用いて撮影した原画像を、縮小処理の基準点を移動させながら縮小処理(間引き処理)を行うことによって、不可視画像を復号し、続いて原画像との差分を取るような画像処理を施して、差分画像を取得することができる。このような画像処理によって、不可視画像の復号の際に縞模様(縞状模様)が生じるような場合であっても、文字領域を抽出しやすくし、容易に光学的文字認識(Optical Character Recognition、以下、OCR処理とする。)を行える認証方法、その認証システム、及び認証用プログラムを提供する。 According to the present invention, an invisible image is decoded by performing a reduction process (thinning process) while moving a reference point for the reduction process on an original image taken by using a commercially available image pickup device (for example, a digital camera). Then, it is possible to obtain a difference image by performing image processing such as taking a difference from the original image. By such image processing, even when a striped pattern (striped pattern) is generated when decoding an invisible image, it is easy to extract a character area, and optical character recognition (Optical Character Recognition) can be easily performed. Hereinafter, an authentication method capable of performing OCR processing), an authentication system thereof, and an authentication program will be provided.
本発明の認証システム、認証方法、及び認証用プログラムによれば、市販の撮像装置(例えば、デジタルカメラ)を用いて撮影した原画像を、縮小処理の基準点を移動させながら縮小処理(間引き処理)を行うことによって、不可視画像を復号し、続いて復号した画像と原画像との差分を取るような画像処理を施すことにより取得した差分画像によって、不可視画像の復号の際に縞模様(縞状模様)が生じるような場合であっても、文字領域を抽出しやすくし、容易にOCR処理を行うことができる。 According to the authentication system, the authentication method, and the authentication program of the present invention, the original image taken by using a commercially available image pickup device (for example, a digital camera) is reduced (thinned out) while moving the reference point of the reduction processing. ) Is performed to decode the invisible image, and then the difference image obtained by performing image processing such as taking the difference between the decoded image and the original image is used to obtain a striped pattern (stripes) when the invisible image is decoded. Even when a pattern) is generated, the character area can be easily extracted and the OCR process can be easily performed.
本発明における一体型認証システムの実施形態について図面を用いて説明する。本発明における認証システムの構成を図9に示す。 An embodiment of the integrated authentication system in the present invention will be described with reference to the drawings. The configuration of the authentication system in the present invention is shown in FIG.
本発明の認証システム10は、画像取込装置1と認証端末2とで構成されている。画像取込装置1は、撮像部3、照明部4、インターフェース部5、及び筐体部6を備えており、筐体部6には、隠蔽画像(秘密画像)又は隠蔽情報が印刷された被検体(例えば、印刷物、ICカード等)7が載置されるようになっている。
The
また、認証端末2(例えば、パーソナルコンピュータ、ラップトップコンピュータ)は、制御部2a、記憶部2b及び表示部2c等から構成されている。
Further, the authentication terminal 2 (for example, a personal computer or a laptop computer) is composed of a control unit 2a, a
本発明の実施形態における認証システムのブロック図を図10に示す。 A block diagram of the authentication system according to the embodiment of the present invention is shown in FIG.
認証システム10における照明部4は、被検体7に光を照射する手段であり、IR照明、透過光を含めた可視光照明、又はUV照明のいずれかが備わっている。通常、隠蔽画像を撮像する際は、太陽光などの自然の状態で撮像することが可能である。しかし、夜間や屋内等の光が弱く希望の撮像ができない場合には、隠蔽画像に対応した照射が可能なように、IR照明、可視光照明、又はUV照明から適当な照明が選択可能となっている。
The
また、撮像部3は、所定の波長領域(通常、可視光領域)において隠蔽画像又は隠蔽情報を含む被検体7を所定回数撮像して得られた、所定個数の原画像を取得する手段である。撮影の際、2回以上撮像する場合は、各画像において印刷物の撮像箇所が変動しないように、撮像部3と被検体7の相対的な位置関係を固定にして撮像することができる。例えば、撮像部3の固定手段として、三脚、スタンド等の器具を用いて固定してもよい。
Further, the
認証端末2における制御部2aは、インターフェース部5を介して、撮像部3が撮影した原画像を取得し、記憶部2bに記憶する。制御部2aは、画像情報を画像処理等の演算を行い、演算結果を表示部2cに表示し、記憶部2bに記憶させる。そして、記憶部2bに記憶された演算結果に基づいて、隠蔽画像又は隠蔽情報を認証する。また、被検体7にICチップが埋め込まれているような場合、ICチップの情報を読み取り、その情報と印刷物に印刷された不可視情報又は隠蔽情報の照合を行う。
The control unit 2a in the
次に、被検体7の印刷領域を撮影して得られた画像情報から、不可視画像を顕在化(可視化)させる画像処理について説明する。 Next, an image process for making an invisible image manifest (visualize) from the image information obtained by photographing the print area of the subject 7 will be described.
先ず、撮像部3、例えば市販のデジタルカメラの液晶モニターの画素配置の一部を拡大した一例を図11に示す。図11に示すように、縦方向はm行目を中心に−3〜+7行の範囲、横方向はn列を中心に、−2行〜+5行の範囲の画素が配列されている。
First, FIG. 11 shows an enlarged example of a part of the pixel arrangement of the
市販のデジタルカメラを用いて被写体を撮影すると、図11で示したような各画素に輝度値(例えば、0〜255(8ビット)階調データ)がデジタルカメラ内部の記憶装置(メモリ素子)に系統的に画像情報(原画像)として記憶される。つまり、被検体7の印刷領域の輝度分布(空間配置)をデジタルカメラの解像度(分解能)に応じて細分化されて、各画素の輝度値に変換されて、メモリ内各領域に画像情報(例として配列データ)として保存される。 When a subject is photographed using a commercially available digital camera, a brightness value (for example, 0 to 255 (8-bit) gradation data) is stored in a storage device (memory element) inside the digital camera for each pixel as shown in FIG. It is systematically stored as image information (original image). That is, the brightness distribution (spatial arrangement) of the print area of the subject 7 is subdivided according to the resolution (resolution) of the digital camera, converted into the brightness value of each pixel, and the image information (eg,) in each area in the memory. It is saved as array data).
次に、取得した画像情報の縮小処理(間引き処理)を行う。その簡単な一例を図12に示す。図12は、処理前の原画像に対して、3行中の2行分の画素を間引きして、表示しないような処理をし、間引きをしない残り1行分の画素を表示する画像処理の一例である。 Next, the acquired image information is reduced (thinned out). A simple example thereof is shown in FIG. FIG. 12 is an image process in which the pixels of two rows out of three rows are thinned out from the original image before processing so that the pixels are not displayed, and the pixels of the remaining one row without thinning out are displayed. This is just one example.
次に、図13に不可視領域(画線A、画線A’)と可視領域(領域C)とが印刷された印刷領域と、デジタルカメラの画素配置とを重ね合わせた様子を示す。図13に示すように、デジタルカメラの画素配置は、M行目とN列目との交差する画素を中心にして、−3〜+7行目及び−2〜+5列目の範囲を示し、M行目、M+3行目、M+6行目に、画線A及び可視領域(領域C)の階調データが書き込まれており、M−2行目、M−1行目、M+1行目、M+2行目、M+4行目、M+5行目に、画線A’及び可視領域(領域C)の階調データが書き込まれている。 Next, FIG. 13 shows a state in which the print area in which the invisible area (image line A, image line A') and the visible area (area C) are printed and the pixel arrangement of the digital camera are superimposed. As shown in FIG. 13, the pixel arrangement of the digital camera shows the range of the -3rd to +7th rows and the 2nd to +5th columns centering on the intersecting pixels of the Mth row and the Nth column, and M. The gradation data of the image line A and the visible region (area C) are written in the line A, the M + 3 line, and the M + 6 line, and the M-2 line, the M-1 line, the M + 1 line, and the M + 2 line are written. The gradation data of the image line A'and the visible region (region C) are written in the eyes, the M + 4th line, and the M + 5th line.
そして、図13に示すように、デジタルカメラが撮影した画素情報には、画線Aと画線A’の両方の階調が配列されている。そうすると、画線Aと画線A’の各面積は、同一又は略同一であり、画線Aの明度と画線A’の明度とは、一方が明るいと他方は暗いという明暗関係(相補的関係)にあるため、ほぼ灰色の一様な画像成分を形成することになる。この結果、印刷領域の画線Aによって埋め込まれた画像、及び印刷領域の画線A’によって埋め込まれた画像のいずれも、観察者は、視認することができない。一方、可視領域に印刷された可視画像(領域C)は、観察者が視認することができることを示している。 Then, as shown in FIG. 13, the gradations of both the image line A and the image line A'are arranged in the pixel information captured by the digital camera. Then, the areas of the image line A and the image line A'are the same or substantially the same, and the brightness of the image line A and the brightness of the image line A'are a light-dark relationship (complementary) that one is bright and the other is dark. Because of the relationship), a uniform image component of almost gray is formed. As a result, neither the image embedded by the image line A in the print area nor the image embedded by the image line A'in the print area can be visually recognized by the observer. On the other hand, the visible image (region C) printed in the visible region indicates that the observer can visually recognize it.
次に、図14は、処理前のデジタルカメラの画像情報(原画像)に対して、3行中の2行分の画素を間引き処理をして、表示しないような処理をし、間引き処理をしない残りの1行分の画素を表示する画像処理を行った例を示す。 Next, in FIG. 14, the image information (original image) of the digital camera before processing is processed by thinning out the pixels of two lines in the three lines so as not to be displayed, and the thinning process is performed. An example is shown in which image processing is performed to display the pixels for the remaining one line.
図14には、画線A及び領域Cの階調データが書き込まれているM行目、M+3行目、M+6行目に配置された画素は、表示され、画線A’及び領域Cの階調データが書き込まれている、M−2行目、M−1行目、M+1行目、M+2行目、M+4行目、M+5行目に配置された画素は、表示しないように縮小処理(間引き処理)を行った様子が示されている。そうすると、画線Aの階調データが書き込まれている画素情報のみが表示(抽出)され、観察者は、復号化された潜像部(ポジ画像)を認証することができる。 In FIG. 14, the pixels arranged in the Mth line, the M + 3rd line, and the M + 6th line in which the gradation data of the image line A and the area C are written are displayed, and the floors of the image line A'and the area C are displayed. The pixels arranged in the M-2nd line, M-1st line, M + 1st line, M + 2nd line, M + 4th line, and M + 5th line in which the adjustment data is written are reduced (thinned out) so as not to be displayed. The state of performing the processing) is shown. Then, only the pixel information in which the gradation data of the image line A is written is displayed (extracted), and the observer can authenticate the decoded latent image portion (positive image).
一方、画線A’の階調データが書き込まれている、M−1行目、M+2行目、M+5行目に配置された画素は表示し、画線Aの階調データが書き込まれているM行目、M+3行目、M+6行目に配置された画素は表示しないように、間引き処理をする画像処理を行った場合を考えると、画線A’の階調データが書き込まれている画素のみが表示(抽出)されため、観察者は、復号化された背景部(潜像部に対してネガ画像)を認証することができる。 On the other hand, the pixels arranged in the M-1st line, the M + 2nd line, and the M + 5th line in which the gradation data of the image line A'is written are displayed, and the gradation data of the image line A is written. Considering the case where image processing is performed so that the pixels arranged in the Mth line, M + 3rd line, and M + 6th line are not displayed, the pixel in which the gradation data of the image line A'is written is written. Since only is displayed (extracted), the observer can authenticate the decoded background portion (negative image for the latent image portion).
しかしながら、デジタルカメラの画素配列の方向と、画線Aと画線A’の方向とを一致させることは、現実的には難しい。このため、画素配列A(M,N+3)では、図15に示すように、デジタルカメラの画素配列の方向と画線Aと画線A’の方向とは、角度θを成すように、ずれが生じ易い。デジタルカメラの画素配列A(M,N−3)が画線Aと重なり合っている位置から、十分離れた距離Lに存在する画素配列A(M,N+3)は、画線Aとほとんど重なり合っておらず、領域Cと重なっている。このため、観察者からは、潜像部すなわちポジ画像が消えて、可視画像が表示されていると認識されると考えられる。そこで、画像配列A(M,N+3)の1画素分上方にずれているB(M+1,N+3)を表示画素に採用することによって、ポジ画像が再度表示されるようにできると考えられる。 However, it is practically difficult to match the direction of the pixel arrangement of the digital camera with the direction of the image line A and the image line A'. Therefore, in the pixel array A (M, N + 3), as shown in FIG. 15, the direction of the pixel array of the digital camera and the direction of the image line A and the image line A'are deviated so as to form an angle θ. It is easy to occur. The pixel array A (M, N + 3) existing at a distance L sufficiently distant from the position where the pixel array A (M, N-3) of the digital camera overlaps with the image line A almost overlaps with the image line A. It does not overlap with the area C. Therefore, it is considered that the observer recognizes that the latent image portion, that is, the positive image disappears and the visible image is displayed. Therefore, it is considered that the positive image can be displayed again by adopting B (M + 1, N + 3) shifted upward by one pixel of the image array A (M, N + 3) as the display pixel.
次に、図16に不可視領域(画線B、画線B’)と可視領域(領域C)とが印刷された印刷領域と、デジタルカメラの画素配置を重ね合わせた拡大図を示す。 Next, FIG. 16 shows an enlarged view in which the print area in which the invisible area (image line B, image line B') and the visible area (area C) are printed and the pixel arrangement of the digital camera are superimposed.
図16に示すように、デジタルカメラの画素配置は、m行目とn列目との交差する画素を中心にして、−2〜+7行目及び−3〜+3列目の範囲を示し、N−3列目、N列目、N+3列目に画線Bの階調データが書き込まれており、N−2列目、N+1列目に画線B’の階調データが書き込まれている。 As shown in FIG. 16, the pixel arrangement of the digital camera shows the range of the -2 to +7th row and the -3 to +3th column centering on the intersecting pixel of the mth row and the nth column, and N The gradation data of the image line B is written in the third column, the Nth column, and the N + 3rd column, and the gradation data of the image line B'is written in the N-2nd column and the N + 1th column.
また、図16に示すように、デジタルカメラの画素情報には、画線Bと画線B’の両方の階調が配列されている。そうすると、画線Bと画線B’の各面積は、同一又は略同一であり、画線Bの明度と画線B’の明度とは、相補的関係にあるため、印刷領域の画線Bによって埋め込まれた不可視画像(潜像部)、及び印刷領域の画線B’によって埋め込まれた不可視画像(背景部)のいずれも、観察者は、視認することができない。一方、可視領域に印刷された可視画像(領域C)は、観察者が視認することができることを示している。 Further, as shown in FIG. 16, the gradations of both the image line B and the image line B'are arranged in the pixel information of the digital camera. Then, the areas of the image line B and the image line B'are the same or substantially the same, and the brightness of the image line B and the brightness of the image line B'are in a complementary relationship. Neither the invisible image (latent image portion) embedded in the image nor the invisible image (background portion) embedded by the image line B'in the print area can be visually recognized by the observer. On the other hand, the visible image (region C) printed in the visible region indicates that the observer can visually recognize it.
次に、図17に示すように、画像処理前のデジタルカメラの画像(原画像)に対して、3列中の2列分の画素を間引きして、表示しないような処理をし、間引きしない残り1列分の画素を表示する画像処理を行う。 Next, as shown in FIG. 17, the pixels of two rows in the three rows are thinned out from the image (original image) of the digital camera before the image processing so as not to be displayed, and the pixels are not thinned out. Image processing is performed to display the pixels for the remaining one column.
図17に示すように、画線B及び領域Cの階調データが書き込まれているN−3列目、N列目に配置された画素は表示され、画線B’及び領域Cの階調データが書き込まれている、N−2列目、N+1列目に配置された画素は、表示しないように間引き処理をすると、画線B及び領域Cの階調データが書き込まれている画素のみが表示(抽出)される。このため、観察者は、復号化された潜像部(ポジ画像)を視認することができる。また、画線B’の階調データが書き込まれている、N−2列目、N+2列目に配置された画素のみが表示(抽出)されるようにすれば、観察者は、復号化された背景部(潜像部に対してネガ画像)を視認することができる。 As shown in FIG. 17, the pixels arranged in the N-3rd column and the Nth column in which the gradation data of the image line B and the area C are written are displayed, and the gradation of the image line B'and the area C is displayed. When the pixels arranged in the N-2nd column and the N + 1th column to which the data is written are thinned out so as not to be displayed, only the pixels in which the gradation data of the image line B and the area C are written are written. It is displayed (extracted). Therefore, the observer can visually recognize the decoded latent image portion (positive image). Further, if only the pixels arranged in the N-2nd column and the N + 2nd column in which the gradation data of the image line B'is written are displayed (extracted), the observer is decoded. The background part (negative image with respect to the latent image part) can be visually recognized.
ところで、図18に示すように、デジタルカメラの画素配列の方向と、画線Bと画線B’の方向とを一致させることは、現実的には難しい。このため、図18に示すように、デジタルカメラの画素配列の方向と画線Bと画線B’の方向とが、角度θを成すように、ずれが生じ易い。デジタルカメラの画素配列B(M+7,N)が画線Bと重なり合っている位置から、十分離れた距離L´に存在する画素配列B(M,N)は、画線Bと重なり合っておらず、領域Cと重なっている。このため、画素配列B(M,N)は、画線B(潜像部)から離れて領域Cと重なり、観察者からは可視画像が表示されていると認識されると考えられる。そこで、画像配列B(M,N)の1画素分左方にずれているB(M,N+1)を表示画素に採用することによって、ポジ画像が再度表示されるようにできると考えられる。 By the way, as shown in FIG. 18, it is practically difficult to match the direction of the pixel arrangement of the digital camera with the direction of the image line B and the image line B'. Therefore, as shown in FIG. 18, the direction of the pixel arrangement of the digital camera and the direction of the image line B and the image line B'are likely to deviate so as to form an angle θ. The pixel array B (M, N) existing at a distance L'sufficiently distant from the position where the pixel array B (M + 7, N) of the digital camera overlaps with the image line B does not overlap with the image line B. It overlaps with the area C. Therefore, it is considered that the pixel array B (M, N) is separated from the image line B (latent image portion) and overlaps with the region C, and the observer recognizes that the visible image is displayed. Therefore, it is considered that the positive image can be displayed again by adopting B (M, N + 1), which is shifted to the left by one pixel of the image array B (M, N), as the display pixel.
次に、デジタルカメラを用いて撮影し、縮小処理(実質的には、上述のような間引き処理を指す。)を行った場合、不可視画像が埋め込まれた印刷領域の見え方について検討する。 Next, when a photograph is taken using a digital camera and a reduction process (substantially, a thinning process as described above) is performed, the appearance of the printed area in which the invisible image is embedded will be examined.
先ず、デジタルカメラを用いて、不可視画像が埋め込まれた印刷領域を撮影した画像情報のイメージ図(模式図)を図19に示す。ここでは、図19に示した画像情報を原画像とする。そして、原画像の縮小処理した縮小画像が、背景領域の階調データと文字領域の階調データとの差は、ほぼ一定である場合が理想である。例えば、縮小画像がポジ画像であれば、文字領域の階調データが、背景領域の階調データより低いという場合である。反対に、ネガ画像であれば、画像情報がポジ画像であれば、文字領域の階調データが、背景領域の階調データより高いという場合である。言い換えると、1つの文字領域の階調データと、その文字領域を囲む背景領域の階調データとの大小関係が反転しないような関係が成り立つように、文字領域が連結領域(連結成分)である場合である。そのような場合は、文字領域と背景領域とを容易に分離することができる。 First, FIG. 19 shows an image diagram (schematic diagram) of image information obtained by photographing a print area in which an invisible image is embedded using a digital camera. Here, the image information shown in FIG. 19 is used as the original image. Ideally, the reduced image obtained by reducing the original image has a substantially constant difference between the gradation data in the background region and the gradation data in the character region. For example, if the reduced image is a positive image, the gradation data in the character area is lower than the gradation data in the background area. On the contrary, in the case of a negative image, if the image information is a positive image, the gradation data in the character region is higher than the gradation data in the background region. In other words, the character area is a connected area (connected component) so that the magnitude relationship between the gradation data of one character area and the gradation data of the background area surrounding the character area is not inverted. If. In such a case, the character area and the background area can be easily separated.
しかしながら、現実にデジタルカメラを用いて、印刷領域を撮影した画像情報を縮小処理すると、図20に示すように、縞模様の周期が、各文字領域のスケールより狭くなることが頻繁に起こり得る。それによって、各文字領域の一部はポジ画像領域に属し、隣接する一部はネガ画像領域に属するようになる。つまり、1つの文字領域が、ポジ領域とネガ領域とに分かれた領域(以下、分裂領域とする。)となってしまう。このため、連結領域として文字領域を抽出することが困難となるため、各文字領域をOCR処理することができない。 However, when the image information obtained by actually capturing the print area is reduced by using a digital camera, the period of the striped pattern may frequently become narrower than the scale of each character area, as shown in FIG. 20. As a result, a part of each character area belongs to the positive image area, and a part adjacent to the character area belongs to the negative image area. That is, one character area becomes a region divided into a positive region and a negative region (hereinafter referred to as a split region). Therefore, it becomes difficult to extract the character area as the concatenated area, and each character area cannot be subjected to OCR processing.
そこで、縮小率を調整することによって、縞模様(縞状模様)の周期を伸長することができる。その調整の結果、図21に示すように、文字領域がポジ画像領域とネガ画像領域とに分離していない連結領域として得られようにできる。図21が示すように、文字「4」の領域はポジ画像領域の連結領域となり、文字「1」の領域はネガ領域の連結領域となるが、文字「2」及び「3」は、上記で説示したような分裂領域となっている。 Therefore, by adjusting the reduction ratio, the cycle of the striped pattern (striped pattern) can be extended. As a result of the adjustment, as shown in FIG. 21, the character region can be obtained as a connected region in which the positive image region and the negative image region are not separated. As shown in FIG. 21, the area of the character "4" is a connecting area of the positive image area, and the area of the character "1" is the connecting area of the negative area, but the characters "2" and "3" are described above. It is a divisional area as explained.
次に、縮小率とは逆数の関係である拡大率で、縮小画像を拡大した拡大画像を生成する。そして、その拡大画像から可視画像成分を差し引いた差分画像を生成するように差分画像生成処理を行う。差分画像生成処理による差分画像を図22に示す。その結果、差分画像における背景領域と文字領域とを分離する処理を行うことができるようになる。 Next, an enlarged image is generated by enlarging the reduced image at the enlargement ratio, which is the reciprocal of the reduction ratio. Then, the difference image generation process is performed so as to generate a difference image obtained by subtracting the visible image component from the enlarged image. FIG. 22 shows a difference image obtained by the difference image generation process. As a result, it becomes possible to perform a process of separating the background area and the character area in the difference image.
上述のように、原画像に隠蔽された不可視画像を顕在化(可視化)する場合、縮小処理(間引処理)を行うことは既に説明したが、縮小処理及び拡大処理を行う際には、原画像内の所定の位置に基準点(Px、Py)を設ける必要がある。その基準点は、縮小処理及び拡大処理の空間座標の原点とするためである。そして、基準点の位置を変更することによって、縞模様(縞状模様)に伴う連結領域を変化させることができ、文字「4」以外の文字に対して、ポジ領域の連結領域となる差分画像を取得することができるようになると考えられる。 As described above, it has already been explained that the reduction process (thinning process) is performed when the invisible image hidden in the original image is revealed (visualized), but when the reduction process and the enlargement process are performed, the original image is used. It is necessary to provide a reference point (Px, Py) at a predetermined position in the image. The reference point is to be the origin of the spatial coordinates of the reduction process and the enlargement process. Then, by changing the position of the reference point, the connecting area associated with the striped pattern (striped pattern) can be changed, and the difference image that becomes the connecting area of the positive region for characters other than the character "4". It is thought that it will be possible to obtain.
そこで、基準点を変更して縮小処理を行って復号化した差分画像を図23に示す。図23に示すように、「1」の領域はポジ領域の連結領域となり、文字「4」の領域はネガ領域の連結領域とすることができる。なお、依然として文字「2」及び「3」は、分裂領域となったままである。 Therefore, FIG. 23 shows a difference image decoded by changing the reference point and performing reduction processing. As shown in FIG. 23, the region "1" can be a connecting region of the positive region, and the region of the character "4" can be the connecting region of the negative region. The characters "2" and "3" are still divided regions.
さらに、基準点を再設定して、縮小処理を行って復号化した差分画像を図24に示す。図25に示すように、文字「1」及び「4」の領域は分裂領域となる代わりに、文字「2」及び「3」の領域はポジ領域の連結領域に変えることができる。 Further, FIG. 24 shows a difference image decoded by resetting the reference point and performing reduction processing. As shown in FIG. 25, the regions of the letters "1" and "4" can be changed to the connecting regions of the positive regions, instead of the regions of the letters "1" and "4" being the split regions.
さらに、基準点を再々設定して縮小処理を行って復号化した差分画像を図26に示す。図27に示すように、「4」の領域はポジ領域の連結領域とすることができる。 Further, FIG. 26 shows a difference image decoded by resetting the reference point and performing reduction processing. As shown in FIG. 27, the region "4" can be a connecting region of the positive region.
以上の復号化した複数(4枚)の差分画像から、ポジ領域の連結領域を抽出することによって、文字「1」、「2」、「3」及び「4」の全てが、ポジ領域の連結領域になった文字領域を合成する(繋ぎ合せる)ことができる。そのように合成された文字領域を図28に示す。図28に示された各文字領域に対して、容易に光学的文字認識(OCR)を行うことができる。 By extracting the concatenated area of the positive region from the above-decrypted multiple (4 images) difference images, all of the characters "1", "2", "3" and "4" are concatenated in the positive region. Character areas that have become areas can be combined (joined). The character area thus synthesized is shown in FIG. 28. Optical character recognition (OCR) can be easily performed for each character region shown in FIG. 28.
ここで、基準点と縮小処理及び拡大処理について、原理的な説明を補足して行う。一般的には、縮小処理及び拡大処理のため、原画像に対しては、整数のみが許される座標を設定する。そして、縮小処理及び拡大処理を行う際、中心となる座標を基準点(Px,Py)と定義する。原画像は横幅Lx、縦幅Lyの長方形サイズと設定する。処理の手順としては、(1)空間座標の原点と基準点とが一致するように原画像をずらして、原画像(x,y)を(-Px,-Py)だけ移動する処理、(2)縮小する処理(間引き処理)、(3)拡大する処理、(4)補間する処理(間引き処理によって欠損した画素を隣接する画素情報から推定して補充する処理)、(5)位置を元(原画像の座標系)に戻す処理という、(1)〜(5)ステップで処理を行う例を示す。 Here, the reference point, the reduction process, and the enlargement process will be supplemented with a description in principle. Generally, for reduction processing and enlargement processing, coordinates that allow only integers are set for the original image. Then, when performing the reduction process and the enlargement process, the central coordinates are defined as the reference points (Px, Py). The original image is set to a rectangular size having a horizontal width of Lx and a vertical width of Ly. The processing procedure includes (1) shifting the original image so that the origin of the spatial coordinates and the reference point coincide, and moving the original image (x, y) by (-Px, -Py), (2). ) Shrinking process (thinning process), (3) Enlarging process, (4) Interpolating process (processing to estimate and replenish the missing pixels by the thinning process from the adjacent pixel information), (5) Original position (5) An example of performing the process in steps (1) to (5), which is the process of returning to the original image (coordinate system), is shown.
先ず、初期値として設定された最初の基準点を(Px0,Py0)とする。 First, the first reference point set as the initial value is set to (Px0, Py0).
本発明の実施形態では、最初の基準点(Px0,Py0)は、例えば、原画像の中央の位置座標(Lx/2,Ly/2)に設定する。 In the embodiment of the present invention, the first reference point (Px0, Py0) is set to, for example, the position coordinates (Lx / 2, Ly / 2) at the center of the original image.
縮小処理又は拡大処理を行う前に、原画像(x,y)を(-Px,-Py)だけ移動する必要がある。このような平行移動の変換を行う式を数1に示す。
It is necessary to move the original image (x, y) by (-Px, -Py) before performing the reduction processing or the enlargement processing.
数1に示す座標変換を行うことによって、原画像(x,y)を(-Px,-Py)だけ移動することができる。
By performing the coordinate transformation shown in
次に、縮小処理を行う必要がある。ここで、変換前の画素の座標を(x0,y0)、変換後の座標を(x1,y1)、X軸方向の倍率をSx1、Y軸方向の倍率をSy1とする。そして、縮小処理による座標変換の式は数2のように示すことができる。なお、縮小処理であるため、0<Sx1<1、0<Sy1<1とする。実際の縮小処理における縮小処理方向(例えば、横方向又は縦方向)は、基準点を移動させる場合のように、不可視画像を構成する画線の方向に基づいて、決定される。したがって、原画像を復号するためには、必ずしも、横方向と縦方向の両方向に原画像を縮小処理する必要はない。後述する拡大処理も同様である。縦方向と横方向のいずれにも不可視画像(秘匿情報)が隠されている場合は、縦方向と横方向(両方向)の不可視画像(秘匿情報)が、同時に復号化されるおそれがある。このため、縦方向と横方向(両方向)の不可視画像(秘匿情報)が選択的に復号されるためには、縮小処理方向が、縦方向又は横方向のいずれ一方向となるような縮小処理を行うことが適切である。
Next, it is necessary to perform the reduction process. Here, the coordinates of the pixels before conversion are (x 0 , y 0 ), the coordinates after conversion are (x 1 , y 1 ), the magnification in the X-axis direction is Sx1, and the magnification in the Y-axis direction is Sy1. Then, the formula of the coordinate transformation by the reduction process can be shown as
数2に示す座標変換を行うことによって、原点(0,0)を中心に、原画像(x,y)を縮小処理することができる。
By performing the coordinate transformation shown in
ここで、縮小処理による復号方法の一例として、原画像から一部の画素が間引かれる復号方法を説明する。なお、補間処理を伴わない復号方法によって縮小処理された画像は、必然的に粗くなる。そのような粗さを緩和するため、前述の拡大処理で説明しているようなバイリニア等の補間処理を伴う縮小処理を採用することは、一般に可能である。そのため、忠実な縮小画像を観察者に見せるために、補間処理を伴う縮小処理(アルゴリズム)が、多用される。しかしながら、本発明の実施形態のように、原画像を復号するための縮小処理を行う際、画像の拡大処理と同様の補間処理を行った場合には、原画像中の不可視画像(データ)を復号することが困難となるおそれがある。したがって、不可視画像を復号するためには、補間処理を伴わない縮小処理が好適である。すなわち、本発明の実施形態で説明されている縮小処理(単純に、間引く方法)又は最近傍法(対応する座標を計算して、最も近い画素を採用する方法)である。 Here, as an example of the decoding method by the reduction process, a decoding method in which some pixels are thinned out from the original image will be described. The image reduced by the decoding method without interpolation processing is inevitably coarse. In order to alleviate such roughness, it is generally possible to adopt a reduction process accompanied by an interpolation process such as bilinear as described in the above-mentioned enlargement process. Therefore, in order to show the faithful reduced image to the observer, a reduction process (algorithm) accompanied by an interpolation process is often used. However, as in the embodiment of the present invention, when the reduction process for decoding the original image is performed and the interpolation process similar to the enlargement process of the image is performed, the invisible image (data) in the original image is displayed. It may be difficult to decrypt. Therefore, in order to decode an invisible image, a reduction process that does not involve interpolation processing is preferable. That is, the reduction process (simply, the thinning method) or the nearest neighbor method (a method of calculating the corresponding coordinates and adopting the nearest pixel) described in the embodiment of the present invention.
先ず、数2による縮小変換後の画素の座標x1及びy1は、必ずしも整数となるとは限らないし、小数点以下の端数となるものが生成される。そのような画素の座標は、表示することができないものとして、間引き処理される対象にする。そのように間引き処理によって間引かれる画素と残る画素の比率、画素間の間隔は、X軸方向の倍率Sx1又はY軸方向の倍率Sy1、及び基準点(Px,Py)に依存する。したがって、縮小処理(間引き処理)後の縮小画像のサイズ(画素数)は、原画像のサイズ(画素数)より小さくなることには、留意が必要である。
First, the coordinates x 1 and y 1 of the pixel after the reduction conversion by the
次に、差分画像を適切に生成するため、縮小画像は拡大処理される必要がある。ここで、変換前の画素の座標を(x1,y1)、変換後の座標を(x2,y2)、X軸方向の倍率をSx2、Y軸方向の倍率をSy2とする。そして、拡大処理による座標変換の式は数3のように示すことができる。なお、縮小処理後に差分画像を原画像のサイズ(画素数)に戻すためであるため、Sx2=1/Sx1(Sx1-1)、Sy2=1/Sy1(Sy1-1)とする。
Next, the reduced image needs to be enlarged in order to appropriately generate the difference image. Here, the coordinates of the pixels before conversion are (x 1 , y 1 ), the coordinates after conversion are (x 2 , y 2 ), the magnification in the X-axis direction is Sx2, and the magnification in the Y-axis direction is Sy2. Then, the formula of the coordinate transformation by the enlargement processing can be shown as the
なお、図21に示す縮小画像には、復号化された不可視画像と共に、デザイン化された原画像(「★」印のイメージ)が現れている。このような可視画像(領域C)は、OCR処理を行う際、障害となる。
In the reduced image shown in FIG. 21, the designed original image (image marked with “★”) appears together with the decoded invisible image. Such a visible image (region C) becomes an obstacle when performing OCR processing.
そこで、拡大画像から原画像の成分を差し引く処理について説明する。そのためには、縮小処理(間引き処理)が行われた縮小画像のサイズ(画素数)を、原画像のサイズ(画素数)と同じになるように拡大処理及び補間処理する必要がある。 Therefore, a process of subtracting the components of the original image from the enlarged image will be described. For that purpose, it is necessary to perform enlargement processing and interpolation processing so that the size (number of pixels) of the reduced image subjected to the reduction processing (thinning process) becomes the same as the size (number of pixels) of the original image.
縮小画像の画素数は、元の原画像より画素数が小さくなる。このため、縮小画像を拡大しようとすると、必然的に拡大画像は、原画像に比べ、画素数が不足する。そこで、縮小画像の拡大処理を行うような場合、縮小画像上に存在しない画素(以下、不足画素とする)を周辺画素から推測するため、不足画素を補間する処理(以下、補間処理とする。)が必要になる。 The number of pixels of the reduced image is smaller than that of the original original image. Therefore, when trying to enlarge the reduced image, the enlarged image inevitably has a shortage of pixels as compared with the original image. Therefore, when enlarging a reduced image, a process of interpolating the missing pixels (hereinafter referred to as an interpolation process) is performed in order to estimate pixels that do not exist on the reduced image (hereinafter referred to as missing pixels) from peripheral pixels. ) Is required.
ここで、補間処理の例として、バイリニア補間法を用いて、不足画素の階調データ(輝度値)を算出する手順を示す。周知であるバイリニア補間法(Bi-liner interpolation)は、不足画素の周囲の4つの画素を用いた補間法である。不足画素とその周囲の4画素の位置関係の例を図29に示す。不足画素の座標(Sx,Sy)における画素値(輝度値)を算出する手順を以下に説明する。先ず、不足画素の座標(Sx,Sy)を拡大処理で用いた拡大率aで割って、座標(Sx/a, Sy/a)を算出する。次に、縮小画像における(Sx/a,Sy/a)の周囲の4画素の画素値(輝度値)を取得する。すなわち、I(x,y)、I(x+1,y)、I(x,y+1)、I(x+1,y+1)を取得する。そして、周囲の4画素それぞれと座標(Sx/a, Sy/a)との間の距離を算出し、それぞれ距離に対応する重み付け(0〜1の数値)を算出する。重み付けについては、距離が小さい程、大きくすることが好適である。最後に、周囲の4画素の画素値(輝度値)と重み付けとの積を加算して、不足画素の画素値(輝度値)を推測する。なお、座標(Sx/a, Sy/a)のx座標と座標(x,y)のx座標との差分を、Δxと、座標(Sx/a, Sy/a)のy座標と座標(x,y)のy座標との差分を、Δyと定義する。そうすると、不足画素の画素値(輝度値)Is(Sx, Sy)は、数4のように、算出することができる。
Here, as an example of the interpolation processing, a procedure for calculating the gradation data (luminance value) of the missing pixels by using the bilinear interpolation method is shown. The well-known bi-liner interpolation method is an interpolation method using four pixels around the missing pixel. FIG. 29 shows an example of the positional relationship between the missing pixel and the four pixels around it. The procedure for calculating the pixel value (luminance value) at the coordinates (Sx, Sy) of the missing pixel will be described below. First, the coordinates (Sx / a, Sy / a) are calculated by dividing the coordinates (Sx, Sy) of the missing pixels by the enlargement ratio a used in the enlargement processing. Next, the pixel values (luminance values) of the four pixels around (Sx / a, Sy / a) in the reduced image are acquired. That is, I (x, y), I (x + 1, y), I (x, y + 1), I (x + 1, y + 1) are acquired. Then, the distance between each of the surrounding four pixels and the coordinates (Sx / a, Sy / a) is calculated, and the weighting (numerical value of 0 to 1) corresponding to each distance is calculated. As for the weighting, it is preferable that the smaller the distance, the larger the weighting. Finally, the product of the pixel values (luminance values) of the surrounding four pixels and the weighting is added to estimate the pixel values (luminance values) of the insufficient pixels. The difference between the x-coordinate of the coordinates (Sx / a, Sy / a) and the x-coordinate of the coordinates (x, y) is Δx, and the y-coordinates and coordinates (x) of the coordinates (Sx / a, Sy / a). , Y) The difference from the y coordinate is defined as Δy. Then, the pixel value (luminance value) Is (Sx, Sy) of the insufficient pixel can be calculated as in
そして、縮小処理、拡大処理及び補間処理を行った後に、原画像(x,y)の基準点(Px、Py)を縮小処理及び拡大処理を行った原点(0,0)から、元の座標系に戻すため、再度平行移動する変換を行う。そのような平行移動の変換を行う式を数5に示す。
Then, after performing the reduction processing, the enlargement processing, and the interpolation processing, the reference point (Px, Py) of the original image (x, y) is reduced and enlarged from the origin (0, 0) to the original coordinates. In order to return to the system, the conversion to translate again is performed. The equation for performing such translation conversion is shown in
以上の一連の変換処理をまとめた式を数6に示す。
以上のように説明したように拡大処理及び補間処理を行った結果、元の画素数(サイズ)に戻された画像を取得する。そして、その拡大画像から原画像の成分を差し引く処理を行って、差分画像を生成する。
As a result of performing the enlargement processing and the interpolation processing as described above, the image restored to the original number of pixels (size) is acquired. Then, a process of subtracting the components of the original image from the enlarged image is performed to generate a difference image.
基準点(Px,Py)について補足すると、x=Px、y=Pyの値を数6に代入すると、Sx1、Sy1、Sx2、Sy2に関わらず、変換後の座標(x4,y4)=(Px,Py)に変換される。基準点(Px,Py)は、不動点であるから、基準点(Px,Py)に存在する原画像の階調データ(輝度値)は不変であることは自明である。
To supplement the reference points (Px, Py), if the values of x = Px and y = Py are substituted into the
次に、差分画像を生成した後におけるラベリング処理を説明する。 Next, the labeling process after the difference image is generated will be described.
ラベリング処理の前提として、差分画像が2値化されていることが必要である。2値化された差分画像では、黒画素の領域(又は白画素の領域)が連続した画素領域(連結領域)が検出され易いためである。本発明の実施形態では、説明の便宜上、白画素を背景領域の画素、及び黒画素を文字領域の画素として説明する。 As a premise of the labeling process, it is necessary that the difference image is binarized. This is because in the binarized difference image, a pixel region (connected region) in which a black pixel region (or a white pixel region) is continuous is easily detected. In the embodiment of the present invention, for convenience of explanation, white pixels will be described as pixels in the background region, and black pixels will be described as pixels in the character region.
ここで、2値化された差分画像のサンプル画像を、図30に示す。2値化された差分画像において、連結領域に同じ番号を割り振る処理をラベリングと言う。なお、ラベリング処理によって、連結領域に対応するように、割り当てられた数値をラベル番号と称する。そして、ラベル番号を記憶するラベル領域を用意する。ラベル領域の各ラベル番号は、ラベリング処理の対象となる差分画像の各画素と1対1で対応するため、差分画像の画素の位置からラベル番号を参照することができる。 Here, a sample image of the binarized difference image is shown in FIG. In the binarized difference image, the process of allocating the same number to the connected area is called labeling. The numerical value assigned by the labeling process so as to correspond to the concatenated area is referred to as a label number. Then, a label area for storing the label number is prepared. Since each label number in the label area has a one-to-one correspondence with each pixel of the difference image to be labeled, the label number can be referred from the position of the pixel of the difference image.
先ず、ラベリング処理前に、ラベル領域の全ての値(ラベル番号)は0(ゼロ)となるように初期化する。 First, before the labeling process, all the values (label numbers) in the label area are initialized to be 0 (zero).
次に、ラベリング処理におけるラベル番号の割り振る方法を説明する。 Next, a method of assigning a label number in the labeling process will be described.
ここで、ラベリング処理において用いるマッチングパターンを図31に示す。なお、本発明の実施形態においてラベリング処理に用いるマッチングパターンは、図31に示すように3×3にマトリクスである。先ず、マッチングパターンの中心は、ラベル領域においてラベル番号が割り振られる注目画素に対応する。そして、注目画素の周辺の白及び黒画素のパターンを判定して、ラベル番号を決定する。 Here, the matching pattern used in the labeling process is shown in FIG. The matching pattern used for the labeling process in the embodiment of the present invention is a 3 × 3 matrix as shown in FIG. First, the center of the matching pattern corresponds to the pixel of interest to which the label number is assigned in the label area. Then, the pattern of the white and black pixels around the pixel of interest is determined, and the label number is determined.
具体的には、注目画素からみて、左上、真上、右上、左の周辺画素のラベル番号が、すべて0(ゼロ)の場合には、最後に割り振った番号に1を加えたラベル番号を割り振る。また、初期化後、割り振った番号が無く、初めてラベル番号を割り振るときは、注目画素に対応するラベル領域のラベル番号(以下、注目画素のラベル番号と称する)に1を割り振る。なお、注目画素からみて、右上、真下、左上、右の周辺画素は、ラベリング処理に関与しない(無関係とする)。さらに、左上、真上、右上、左の周辺画素に既に割り振ったラベル番号が、複数存在する場合には、そのうちの最小のラベル番号が、注目画素のラベル番号として割り振られる。 Specifically, when the label numbers of the peripheral pixels on the upper left, directly above, upper right, and left are all 0 (zero) when viewed from the pixel of interest, the label number obtained by adding 1 to the last assigned number is assigned. .. Further, when the label number is assigned for the first time because there is no assigned number after the initialization, 1 is assigned to the label number of the label area corresponding to the pixel of interest (hereinafter referred to as the label number of the pixel of interest). It should be noted that the peripheral pixels on the upper right, directly below, upper left, and right when viewed from the pixel of interest are not involved in the labeling process (they are irrelevant). Further, when there are a plurality of label numbers already assigned to the peripheral pixels on the upper left, directly above, upper right, and left, the smallest label number among them is assigned as the label number of the pixel of interest.
このようにして、マッチングパターンを画像全体にわたって走査しながら、マッチングパターン内の注目画素についてラベリング処理を行う。 In this way, while scanning the matching pattern over the entire image, labeling processing is performed on the pixels of interest in the matching pattern.
ここで、本発明の実施形態におけるラベリング処理の一例を示して、ラベリング処理について説明する。 Here, an example of the labeling process according to the embodiment of the present invention will be shown, and the labeling process will be described.
先ず、図32に初期化したラベル領域を示す。図32が示すように、ラベリング処理の最初、マッチングパターンは、ラベル領域の左上に位置する。差分画像の第1行に注目画素がある場合には、注目画素の上に周辺画素が無いため、注目画素のラベル番号が割り振られることはない。ラベリング処理中、マッチングパターンは、左から右に移動する。そして、右端まで達した後、一行下方に移動し、左端に向けて移動する。第2行以降に注目画素のラベル番号が割り振られる。 First, FIG. 32 shows the initialized label area. As shown in FIG. 32, at the beginning of the labeling process, the matching pattern is located at the upper left of the label area. When the pixel of interest is in the first row of the difference image, the label number of the pixel of interest is not assigned because there are no peripheral pixels on the pixel of interest. During the labeling process, the matching pattern moves from left to right. Then, after reaching the right end, it moves down one line and moves toward the left end. The label numbers of the pixels of interest are assigned to the second and subsequent rows.
2値化した差分画像において、最初の黒画素の注目画素を検出した様子を図33に示す。上述のように、注目画素からみて、左上、真上、右上、左の周辺画素のラベル番号がすべて0(ゼロ)であるから、注目画素のラベル番号に1を割り振ることができる。そして、最初の黒画素の注目画素を検出した際におけるラベリング処理の様子を図34に示す。さらに、マッチングパターンを走査していくと、図35に示すように、2番目の黒画素の注目画素を検出する。 FIG. 33 shows how the first black pixel of interest was detected in the binarized difference image. As described above, since the label numbers of the peripheral pixels on the upper left, directly above, upper right, and left are all 0 (zero) when viewed from the pixel of interest, 1 can be assigned to the label number of the pixel of interest. FIG. 34 shows the state of the labeling process when the first black pixel of interest is detected. Further, as the matching pattern is scanned, as shown in FIG. 35, the second black pixel of interest is detected.
この場合、右上の周辺画素に既に割り振ったラベル番号1が含まれるから、図36に示すように、注目画素のラベル番号に1が割り振られる。そして、同様に判断して、ラベル領域の5箇所にラベル番号1を割り振る。
In this case, since the
さらに、マッチングパターンを走査していくと、図37に示すように、7つ目の黒画素の注目画素に行き当たる。この注目画素からみて、左上、真上、右上、左の周辺画素のラベル番号が、すべて0(ゼロ)である。ただし、既に割り振ったラベル番号が1であるから、2(=1+1)のラベル番号をこの注目画素のラベル番号に割り振る。そして、同様に判断して、ラベル領域の2箇所にラベル番号として2を割り振る。7番目の黒画素の注目画素を検出した際におけるラベリング処理を図38に示す。 Further, as the matching pattern is scanned, as shown in FIG. 37, the seventh black pixel of interest is found. The label numbers of the peripheral pixels on the upper left, directly above, upper right, and left are all 0 (zero) when viewed from the pixel of interest. However, since the label number already assigned is 1, the label number of 2 (= 1 + 1) is assigned to the label number of the pixel of interest. Then, in the same manner, 2 is assigned as a label number to two places in the label area. FIG. 38 shows the labeling process when the 7th black pixel of interest is detected.
さらに、マッチングパターンを走査していくと、図39に示すように、注目画素からみて、左上、真上、右上、左の周辺画素のラベル番号がすべて0(ゼロ)である14番目の黒画素を検出する。ここで、最後に割り振ったラベル番号が2であるから、図40に示すように、3(=2+1)のラベル番号を注目画素のラベル番号に割り振る。このような走査をして、全差分画面に対するラベリング処理を行う。 Further, as the matching pattern is scanned, as shown in FIG. 39, the 14th black pixel in which the label numbers of the peripheral pixels on the upper left, directly above, upper right, and left are all 0 (zero) when viewed from the pixel of interest. Is detected. Here, since the label number assigned last is 2, as shown in FIG. 40, the label number of 3 (= 2 + 1) is assigned to the label number of the pixel of interest. By performing such scanning, labeling processing is performed on all the difference screens.
本発明の実施形態における2値化した差分画像において、マッチングパターンが左下まで到達して、走査終了した様子を図41に示す。走査終了後、図42に示すように、一旦ラベル領域にラベル番号が割り振られる。続いて、ラベル領域内に適切なラベル番号が割り振られているか否かを判定する。不適切と判断した場合には、ラベル番号を修正する。例えば、ラベル領域内の6行2列目のラベル番号3は、ラベル番号1の連結領域と隣接している。このため、図43に示すように、ラベル領域内の6行2列目のラベル番号は3から1に修正されるべきである。
In the binarized difference image according to the embodiment of the present invention, FIG. 41 shows how the matching pattern reaches the lower left and the scanning is completed. After the scanning is completed, a label number is temporarily assigned to the label area as shown in FIG. 42. Then, it is determined whether or not an appropriate label number is assigned in the label area. If it is determined to be inappropriate, correct the label number. For example, the
上述のようにラベリング処理でラベル番号を修正するため、図44に示すようなルックアップテーブル(以下、LUTと称する)を用意することが好適である。ラベリング処理中に新しいラベル番号が生成されるとき、LUTに新しいラベル番号を登録する。そして、ラベル番号に修正が必要となったとき、修正後のラベル番号を再登録すれば良い。 In order to correct the label number by the labeling process as described above, it is preferable to prepare a look-up table (hereinafter referred to as LUT) as shown in FIG. 44. When a new label number is generated during the labeling process, the new label number is registered in the LUT. Then, when the label number needs to be corrected, the corrected label number may be re-registered.
次に、差分画像における背景画像と文字領域とを分離する処理を説明する。 Next, the process of separating the background image and the character area in the difference image will be described.
本発明の実施形態では、ある文字領域を差分画像から分離できたら、別の文字領域を抽出できる差分画像を生成するため、基準点(Px,Py)の移動を行う必要がある。 In the embodiment of the present invention, if a certain character area can be separated from the difference image, it is necessary to move the reference point (Px, Py) in order to generate a difference image capable of extracting another character area.
そこで、基準点をどのように移動するかを説明する。基準点の移動方向について説明する。 Therefore, how to move the reference point will be described. The moving direction of the reference point will be described.
先ず、基準点(Px,Py)をX軸方向(横方向)に移動するか、Y軸方向(縦方向)に移動するかについては、不可視画像を構成する画線の方向に基づいて、決定する。不可視画像をX軸方向に復号処理を行う場合、X軸方向(横方向)に基準点をずらして、間引き処理を行う。また、不可視画像をY軸方向に復号処理を行う場合、Y軸方向(縦方向)に基準点をずらして、間引き処理を行う。さらに、基準点(Px,Py)は、座標軸の正(プラス)の方向に沿ってずらしても、負(マイナス)の方向に沿ってずらしても良く、任意に設定することができる。基準点(Px,Py)は、一定の方向にずらすものと決める。本発明の実施形態では、X軸又はY軸の正(プラス)の方向にずらすと設定している。 First, whether to move the reference point (Px, Py) in the X-axis direction (horizontal direction) or in the Y-axis direction (vertical direction) is determined based on the direction of the image lines constituting the invisible image. do. When the invisible image is decoded in the X-axis direction, the reference point is shifted in the X-axis direction (horizontal direction) and the thinning process is performed. Further, when the invisible image is decoded in the Y-axis direction, the reference point is shifted in the Y-axis direction (vertical direction) and the thinning process is performed. Further, the reference points (Px, Py) may be shifted along the positive (plus) direction of the coordinate axes or may be shifted along the negative (minus) direction, and can be set arbitrarily. The reference point (Px, Py) is determined to be shifted in a certain direction. In the embodiment of the present invention, it is set to shift in the positive (plus) direction of the X-axis or the Y-axis.
本発明の実施形態では、最初の基準点(Px0,Py0)は、例えば、原画像の中央の位置座標(Lx/2,Ly/2)に設定する。基準点(Px,Py)の移動最小量は、1画素分と設定する。そして、基準点(Px,Py)は、通常1画素単位でずらされる。このような設定については、基準点が1画素分のずれた場合であっても、縮小画像の縞模様(縞状模様)が大きく変化することがその理由である。 In the embodiment of the present invention, the first reference point (Px0, Py0) is set to, for example, the position coordinates (Lx / 2, Ly / 2) at the center of the original image. The minimum amount of movement of the reference point (Px, Py) is set to one pixel. Then, the reference points (Px, Py) are usually shifted in units of one pixel. The reason for such a setting is that the striped pattern (striped pattern) of the reduced image changes significantly even when the reference point is deviated by one pixel.
具体的に、基準点をX軸方向にずらすような例を示す。先ず、最初の基準点(Px,Py)=(Px0,Py0)とする。次の基準点(Px,Py)=(Px0+1、Py0)、その次の基準点(Px,Py)=(Px+2、Py0)と移動させていく。さらに、基準点をY軸方向にずらすような例を示す。最初の基準点(Px,Py)=(Px0,Py0)とすると、次の基準点(Px,Py)=(Px0、Py0+1)、その次の基準点(Px,Py)=(Px0、Py0+2)と移動させていく。上記のような一連の処理によって生成される差分画像から、文字領域を抽出していく。 Specifically, an example of shifting the reference point in the X-axis direction is shown. First, the first reference point (Px, Py) = (Px0, Py0). The next reference point (Px, Py) = (Px0 + 1, Py0) and the next reference point (Px, Py) = (Px + 2, Py0) are moved. Further, an example in which the reference point is shifted in the Y-axis direction is shown. Assuming that the first reference point (Px, Py) = (Px0, Py0), the next reference point (Px, Py) = (Px0, Py0 + 1), the next reference point (Px, Py) = (Px0, Py0 + 2) I will move it. The character area is extracted from the difference image generated by the series of processes as described above.
このようにして、基準点(Px,Py)をずらしながら、指定した桁数分の文字を抽出する、又は既定の回数の差分画像を生成するまで繰り返す。そして、生成した差分画像から抽出した文字領域の合成(繋ぎ合わせ)をして、画像情報を生成する。合成した画像情報をOCR処理することによって、印刷領域の不可視画像の情報を認証することができる。 In this way, while shifting the reference points (Px, Py), the characters are extracted for the specified number of digits, or the process is repeated until a predetermined number of difference images are generated. Then, the character areas extracted from the generated difference image are combined (joined) to generate image information. By performing OCR processing on the combined image information, it is possible to authenticate the information of the invisible image in the print area.
次に、本発明の認証システムが、デジタルカメラに用いて、隠蔽画像又は隠蔽情報が印刷された印刷領域を撮影し、不可視画像の文字領域を復号化して、OCR処理を行うまでの一連の流れ(フロー)を、図45を用いて説明する。 Next, the authentication system of the present invention uses a digital camera to photograph a printed area on which a hidden image or hidden information is printed, decodes a character area of an invisible image, and performs OCR processing. (Flow) will be described with reference to FIG. 45.
本発明の認証システムは、印刷領域の不可視画像の1文字毎に、背景領域と文字領域とを分離するような処理を行うことができる。そのため、本発明の認証システムは、少なくとも予め想定された文字数に相当する枚数の差分画像を生成することができ、差分画像の最大枚数として、予め想定された文字数を設定している。差分画像は、上述したように原画像成分を差し引いた画像である。 The authentication system of the present invention can perform processing for separating the background area and the character area for each character of the invisible image in the print area. Therefore, the authentication system of the present invention can generate at least a number of difference images corresponding to a predetermined number of characters, and sets a predetermined number of characters as the maximum number of difference images. The difference image is an image obtained by subtracting the original image components as described above.
特に、1つの文字領域が、当初設定した基準点に基づいた縮小処理によって、ポジ画像とネガ画像に分かれてしまうような場合、1つの文字領域が連結領域となるようになるまで、基準点を変更(再設定)することができる。なお、基準点の再設定の回数に上限を設けても良く、例えば、予め想定された文字数に基づいて設定しても良い。 In particular, when one character area is divided into a positive image and a negative image by the reduction process based on the initially set reference point, the reference point is set until one character area becomes a connecting area. It can be changed (reset). An upper limit may be set for the number of times the reference point is reset, and for example, it may be set based on a predetermined number of characters.
先ず、印刷領域の文字情報について、例えば、文字サイズ、文字間隔、読み込み指定桁数、行数、行当たりの文字数等、横方向の縮小率、縦方向の縮小率、差分画像を作成する最大枚数(以下、差分画像作成最大枚数とする。)等の条件を読み込み、初期化を行う(ステップS1)。 First, regarding the character information in the print area, for example, the character size, the character spacing, the number of specified columns to be read, the number of lines, the number of characters per line, etc., the horizontal reduction ratio, the vertical reduction ratio, and the maximum number of sheets for creating a difference image. (Hereinafter, the maximum number of differential images to be created is used.) And the like are read and initialized (step S1).
次に、デジタルカメラを用いて、不可視画像及び可視画像が印刷された印刷領域を撮影する(ステップS2)。なお、撮影については、デジタルカメラの画素配列の方向と、潜像部及び背景部を形成する各画線の方向とが、一致するように、印刷領域とデジタルカメラとの位置関係を調整することが望ましい。しかし、それを完全に一致させることは困難である。例えば、観察者としては、視認される不可視画像のポジ画像とネガ画像に起因する縞模様の間隔が広くなるように方向を調整することによって、望ましい位置関係に近づけることができる。 Next, using a digital camera, the invisible image and the print area on which the visible image is printed are photographed (step S2). For shooting, adjust the positional relationship between the print area and the digital camera so that the direction of the pixel arrangement of the digital camera and the direction of each image line forming the latent image portion and the background portion match. Is desirable. However, it is difficult to make it a perfect match. For example, the observer can approach the desired positional relationship by adjusting the direction so that the distance between the positive image of the invisible image to be visually recognized and the striped pattern caused by the negative image is widened.
次に、原画像に対して、現在の基準点で縮小処理(間引き処理)を行い、所定の縮小率で縮小画像を取得する(ステップS3)。さらに、縮小率とは逆数の関係である拡大率で、縮小画像を拡大し、補間処理を行った拡大画像を取得する(ステップS4)。そして、拡大画像から原画像を差し引いた差分画像を生成する(ステップS5)。 Next, the original image is reduced (thinned out) at the current reference point, and the reduced image is acquired at a predetermined reduction rate (step S3). Further, the reduced image is enlarged at the enlargement ratio, which is the reciprocal of the reduction ratio, and the enlarged image subjected to the interpolation processing is acquired (step S4). Then, a difference image obtained by subtracting the original image from the enlarged image is generated (step S5).
次に、抽出した連結領域毎に番号を割り当てることによって、連結領域が識別することができるように、ラベリング処理を行う(ステップS6)。また、ラベリング処理によって、連結領域の識別の他にも、連結領域の文字サイズ(文字の横幅、高さ、面積(画素数))を取得することができる。 Next, labeling processing is performed so that the connected areas can be identified by assigning a number to each of the extracted connected areas (step S6). Further, by the labeling process, in addition to the identification of the connected area, the character size (width, height, area (number of pixels) of the character) of the connected area can be acquired.
そして、文字サイズに基づいて、差分画像における背景領域と文字領域とを分離する処理を行う(ステップS7)。 Then, a process of separating the background area and the character area in the difference image is performed based on the character size (step S7).
続いて、現在の基準点を移動させる処理を行い、次に処理するための準備をする(ステップS8)。 Subsequently, a process of moving the current reference point is performed, and preparations for the next process are performed (step S8).
次に、指定桁数(例えば、予め読み込みを設定した文字列の数)に達したか否かを判定する(ステップS9)。ステップS9における判定がNoならば、後述するステップS10に進む。ステップS9における判定がYesならば、後述するステップS11に進む。 Next, it is determined whether or not the specified number of digits (for example, the number of character strings for which reading is set in advance) has been reached (step S9). If the determination in step S9 is No, the process proceeds to step S10, which will be described later. If the determination in step S9 is Yes, the process proceeds to step S11 described later.
次に、生成した差分画像の枚数が、設定した差分画像作成最大枚数に達したか否かを判定する(ステップS10)。ステップS10における判定がNoならば、ステップS3に戻って、ステップS3の処理を再度行う。 Next, it is determined whether or not the number of generated difference images has reached the set maximum number of difference image creations (step S10). If the determination in step S10 is No, the process returns to step S3 and the process of step S3 is performed again.
そして、ステップS10における判定がYesならば、OCR処理ができる文字領域を合成する(繋ぎ合わせる)処理を行う(ステップS11)。 Then, if the determination in step S10 is Yes, a process of synthesizing (connecting) character areas capable of OCR processing is performed (step S11).
そして、全ての差分画像から合成(繋ぎ合わ)された文字領域と、各文字に対応する文字パターンとを順次照合(マッチング)する。照合結果に基づいて、全ての文字領域に対して、それぞれ最適の文字パターンを選択することによって、OCR処理を行う(ステップS12)。 Then, the character area synthesized (joined) from all the difference images and the character pattern corresponding to each character are sequentially collated (matched). Based on the collation result, OCR processing is performed by selecting the optimum character pattern for each character area (step S12).
なお、前述した本発明の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that the above-mentioned embodiments of the present invention merely show examples of embodiment in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner by these. be. That is, the present invention can be implemented in various forms without departing from the technical idea or its main features.
また、本発明の実施形態に用いられる画線には、最小単位領域(ユニット)がある。そして、最小単位領域の幅は、縦の寸法Sv又は横の寸法Shによって決まり、例えば、340μmというように、1mm以下の大きさが好適である。 Further, the image line used in the embodiment of the present invention has a minimum unit area (unit). The width of the minimum unit region is determined by the vertical dimension Sv or the horizontal dimension Sh, and a size of 1 mm or less is preferable, for example, 340 μm.
また、本発明の実施形態において、印刷領域を撮影する手段として、CCDラインセンサカメラ、CCDエリアセンサカメラ、フレームトランスファー型CCDイメージセンサ、フルフレームトランスファー型CCDイメージセンサ等を用いて良い。 Further, in the embodiment of the present invention, a CCD line sensor camera, a CCD area sensor camera, a frame transfer type CCD image sensor, a full frame transfer type CCD image sensor, or the like may be used as means for photographing the printed area.
また、前述した本発明の実施形態では、拡大処理に伴い補間処理が必要になる場合、双一次補間(バイリニア補間 Bilinear)を採用することが記載されているが、他の補間処理手法を採用することができる。例えば、最近傍補間(ニアレストネイバー Nearest neighbor)、双三次補間(バイキュビック補間 Bicubic)等を採用しても良い。なお、不可視画像が復元又は復号化することができず、暗号化されている隠蔽画像又は隠蔽情報が失われるような補間処理方法は、本発明では採用できない。 Further, in the above-described embodiment of the present invention, it is described that bilinear interpolation (bilinear interpolation) is adopted when interpolation processing is required due to the enlargement processing, but another interpolation processing method is adopted. be able to. For example, nearest neighbor interpolation (nearest neighbor), bicubic interpolation (bicubic interpolation), or the like may be adopted. It should be noted that the interpolation processing method in which the invisible image cannot be restored or decoded and the encrypted hidden image or hidden information is lost cannot be adopted in the present invention.
明細書中および図面中で示した処理手順、制御手順、具体的名称、各処理の登録データもしくは検索条件等のパラメータを含む情報、画面例、または、データベース構成については、特記する場合を除いて任意に変更することができる。 Information including parameters such as processing procedures, control procedures, specific names, registered data of each processing or search conditions, screen examples, or database configurations shown in the specifications and drawings are not specified unless otherwise specified. It can be changed arbitrarily.
また、本発明の認証システム10に関して、図示の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、認証システム10の各装置が備える処理機能、特に、認証端末2にて行われる各処理機能については、その全部または任意の一部を、CPUおよび当該CPUにて、解釈実行されるプログラムによって、実現しても良い。
Further, with respect to the
なお、プログラムは、後述する、コンピュータに本発明に係る方法を実行させるためのプログラム化された命令を含む、一時的でないコンピュータ読み取り可能な記録媒体に記録されており、必要に応じて認証端末2に機械的に読み取られる。すなわち、ROMまたはHDDなどの記憶部2bなどには、OS(Operating System)と協働してCPUに命令を与え、各種処理を行うためのコンピュータプログラムが記録されている。このコンピュータプログラムは、RAMにロードされることによって実行され、CPUと協働して制御部を構成する。
The program is recorded on a non-temporary computer-readable recording medium including a programmed instruction for causing the computer to execute the method according to the present invention, which will be described later, and the
また、このコンピュータプログラムは、認証端末2に対して、任意のネットワークを介して、接続されたアプリケーションプログラムサーバに記憶されていてもよく、必要に応じてその全部または一部をダウンロードすることも可能である。
Further, this computer program may be stored in the application program server connected to the
また、本発明に係るプログラムを、コンピュータ読み取り可能な記録媒体に格納してもよく、また、プログラム製品として構成することもできる。ここで、この「記録媒体」とは、メモリーカード、USBメモリ、SDカード、フレキシブルディスク、光磁気ディスク、ROM、EPROM、EEPROM、CD−ROM、MO、DVD、および、Blu−ray(登録商標)Disc等の任意の「可搬用の物理媒体」を含むものとする。 Further, the program according to the present invention may be stored in a computer-readable recording medium, or may be configured as a program product. Here, the "recording medium" includes a memory card, a USB memory, an SD card, a flexible disk, a magneto-optical disk, a ROM, an EPROM, an EEPROM, a CD-ROM, a MO, a DVD, and a Blu-ray (registered trademark). It shall include any "portable physical medium" such as a disk.
また、「プログラム」とは、任意の言語や記述方法にて記述されたデータ処理方法であり、ソースコードやバイナリコード等の形式を問わない。なお、「プログラム」は必ずしも単一的に構成されるものに限られず、複数のモジュールやライブラリとして分散構成されるものや、OSに代表される別個のプログラムと協働してその機能を達成するものをも含む。なお、本発明の実施形態に示した各装置において記録媒体を読み取るための具体的な構成、読み取り手順、あるいは、読み取り後のインストール手順等については、周知の構成や手順を用いることができる。 Further, the "program" is a data processing method described in any language or description method, regardless of the format such as source code or binary code. The "program" is not necessarily limited to a single program, but is distributed as multiple modules or libraries, or cooperates with a separate program represented by the OS to achieve its function. Including things. A well-known configuration or procedure can be used for a specific configuration, a reading procedure, an installation procedure after reading, and the like for reading a recording medium in each device shown in the embodiment of the present invention.
また、認証端末2は、既知のパーソナルコンピュータ等の情報処理装置として構成してもよく、また、該情報処理装置に任意の周辺装置を接続して構成してもよい。また、認証端末2は、該情報処理装置に本発明の方法を実現させるソフトウェア(プログラム、データ等を含む)を実装することにより実現してもよい。
Further, the
更に、装置の分散・統合の具体的形態は図示するものに限られず、その全部または一部を、各種の付加等に応じて、または、機能負荷に応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。すなわち、上述した実施形態を任意に組み合わせて実施してもよく、実施形態を選択的に実施してもよい。 Further, the specific form of distribution / integration of the device is not limited to the one shown in the figure, and all or part of the device may be functionally or physically in an arbitrary unit according to various additions or functional loads. It can be configured in a distributed and integrated manner. That is, the above-described embodiments may be arbitrarily combined and implemented, or the embodiments may be selectively implemented.
以上のように、本発明の隠蔽画像又は隠蔽情報を認証する認証システム、認証方法及び認証用プログラムは、写真、ビデオ、デジタル時計、電光掲示板、看板、電卓または手書のマークシート等の画像に含まれる、数字及び文字を認識する際に、ノイズを除去し、数字及び文字の表示領域を特定することで演算量を減らし、処理を高速化することができる。本発明の認証システムを用いた画像処理装置、日付識別装置、本発明の認証方法を用いた画像処理方法、及び、本発明の認証用プログラムは、産業上の多くの分野、特にスキャナまたはカメラで読み込んだ画像を扱う画像処理分野で実施することができ、極めて有用である。 As described above, the hidden image or the authentication system for certifying the hidden information, the authentication method and the authentication program of the present invention are included in the images such as photographs, videos, digital clocks, electric bulletin boards, signboards, calculators or handwritten mark sheets. When recognizing numbers and characters, noise can be removed, and by specifying the display area of numbers and characters, the amount of calculation can be reduced and the processing speed can be increased. Image processing devices using the authentication system of the present invention, date identification devices, image processing methods using the authentication method of the present invention, and authentication programs of the present invention are used in many industrial fields, especially scanners or cameras. It can be carried out in the field of image processing that handles read images, and is extremely useful.
1 画像取込装置
2 認証端末
2a 制御部
2b 記憶部
2c 表示部
3 撮像部
4 照明部
5 インターフェース部
6 筐体部
7 被検体
8 レンチキュラーレンズ
10 認証システム
101 画像読取装置
102 認証端末
103 撮像部
104 照明部
105 網点印刷物
A、A’ 画線
B、B’ 画線
C 画線
D 画線
L1、L2、L3、L4 線
Sv 縦の寸法
Sh 横の寸法
1
Claims (23)
前記画像取込部は、印刷物に光を照射する照明部と、前記印刷物を撮影して、前記印刷領域の原画像を取得する撮像部とを備え、
前記認証端末は、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成し、
前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成し、
前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成し、
前記差分画像データから背景領域と文字領域とを分離し、
前記基準点を画素単位で、所定の方向にずらす処理を行い、
前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行い、前記隠蔽画像又は前記隠蔽情報を認証することを特徴とする認証システム。 Image capture for capturing a printed matter in which a print area composed of a visible area on which visible information or a visible image is printed and an invisible area consisting of a latent image portion and a background portion on which a hidden image or hidden information is printed is arranged. An authentication system including a unit and an authentication terminal for authenticating the hidden image or the hidden information.
The image capturing unit includes a lighting unit that irradiates a printed matter with light, and an imaging unit that photographs the printed matter and acquires an original image of the printed area.
The authentication terminal is provided with a predetermined pixel in the captured image as a reference point, and the original image is reduced at a predetermined reduction rate with the reference point as a reference to generate a reduced image.
With the reference point as a reference, the reduced image is enlarged at an enlargement ratio that is the reciprocal of the reduction ratio, and interpolation processing that is the same as the number of pixels of the original image is performed to generate an enlarged image.
The calculation of subtracting the luminance value of each pixel of the original image from the luminance value of each pixel of the enlarged image is performed to generate the difference image data.
The background area and the character area are separated from the difference image data, and the background area and the character area are separated.
A process of shifting the reference point in a predetermined direction on a pixel-by-pixel basis is performed.
An authentication system characterized by collating the character area extracted from the difference image data with a character pattern, performing OCR, and authenticating the concealed image or the concealed information.
前記画像取込部は、印刷物に光を照射する照明部と、前記印刷物を撮影して、前記印刷領域の原画像を取得する撮像部とを備え、
前記認証端末は、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成し、
前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成し、
前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成し、
前記差分画像データをラベリング処理することによって、ラベル番号を生成し、
前記差分画像データと1対1の対応が付けられるように、ラベル領域に前記ラベル番号を格納し、
前記ラベル番号に基づいて、前記差分画像データから背景領域と文字領域とを分離し、
前記基準点を画素単位で、所定の方向にずらす処理を行い、
前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行い、前記隠蔽画像又は前記隠蔽情報を認証することを特徴とする認証システム。 Image capture for capturing a printed matter in which a print area composed of a visible area on which visible information or a visible image is printed and an invisible area consisting of a latent image portion and a background portion on which a hidden image or hidden information is printed is arranged. An authentication system including a unit and an authentication terminal for authenticating the hidden image or the hidden information.
The image capturing unit includes a lighting unit that irradiates a printed matter with light, and an imaging unit that photographs the printed matter and acquires an original image of the printed area.
The authentication terminal is provided with a predetermined pixel in the captured image as a reference point, and the original image is reduced at a predetermined reduction rate with the reference point as a reference to generate a reduced image.
With the reference point as a reference, the reduced image is enlarged at an enlargement ratio that is the reciprocal of the reduction ratio, and interpolation processing that is the same as the number of pixels of the original image is performed to generate an enlarged image.
The calculation of subtracting the luminance value of each pixel of the original image from the luminance value of each pixel of the enlarged image is performed to generate the difference image data.
By labeling the difference image data, a label number is generated.
The label number is stored in the label area so that a one-to-one correspondence with the difference image data can be attached.
Based on the label number, the background area and the character area are separated from the difference image data.
A process of shifting the reference point in a predetermined direction on a pixel-by-pixel basis is performed.
An authentication system characterized by collating the character area extracted from the difference image data with a character pattern, performing OCR, and authenticating the concealed image or the concealed information.
前記最小単位領域は、第1の画線、第2の画線及び第3の画線が前記所定のピッチで配置され、
前記第1の画線と前記第2の画線が存在しない領域に前記第3の画線が配置され、
前記潜像部は前記第1の画線から構成され、前記背景部は前記第2の画線から構成され、前記可視領域は、前記第3の画線から構成され、
前記第1の画線、前記第2の画線及び前記第3の画線は、直線状領域で、互いに平行となるように配置され、
前記第1の画線と前記第2の画線とは、一方が光学的にオンの場合、他方がオフの関係、又は前記第1の画線の輝度値と前記第2の画線の輝度値との和が所定の輝度値となるような相補的な関係にあり、
前記潜像部によりポジ画像が形成され、前記背景部により前記潜像部のネガ画像が形成される請求項1又は2に記載の認証システム。 A plurality of minimum unit areas having a predetermined area are arranged at a predetermined pitch in the print area.
In the minimum unit region, a first image line, a second image line, and a third image line are arranged at the predetermined pitch.
The third image line is arranged in a region where the first image line and the second image line do not exist.
The latent image portion is composed of the first image line, the background portion is composed of the second image line, and the visible region is composed of the third image line.
The first stroke, the second stroke, and the third stroke are arranged so as to be parallel to each other in a linear region.
When one of the first image and the second image is optically on, the other is off, or the brightness value of the first image and the brightness of the second image. There is a complementary relationship so that the sum of the values is the predetermined brightness value.
The authentication system according to claim 1 or 2, wherein a positive image is formed by the latent image portion, and a negative image of the latent image portion is formed by the background portion.
前記秘密画像の画素が黒の場合、2行2列の第1のチェッカーパターンに変換され、
前記秘密画像の画素が白の場合、前記第1のチェッカーパターンと白黒が反転する2行2列の第2のチェッカーパターンに変換され、前記隠蔽画像に変換される請求項1乃至8のいずれかに記載の認証システム。 The secret image is embedded in the invisible area,
When the pixel of the secret image is black, it is converted into the first checker pattern of 2 rows and 2 columns.
When the pixel of the secret image is white, it is converted into a second checkered pattern having two rows and two columns in which the first checker pattern and black and white are inverted, and the hidden image is converted into any one of claims 1 to 8. The authentication system described in.
前記画像取込部を用いて、前記印刷物を撮影して、前記印刷領域の原画像を取得するステップと、
前記認証端末を用いて、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成するステップと、
前記認証端末を用いて、前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成するステップと、
前記認証端末を用いて、前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成するステップと、
前記認証端末を用いて、前記差分画像データから文字領域と前記文字領域以外の背景領域とを分離するステップと、
前記認証端末を用いて、前記基準点を画素単位で、所定の方向にずらすステップと、
前記認証端末を用いて、前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行うステップと、
前記認証端末を用いて、前記OCRの結果に基づいて、前記隠蔽画像又は前記隠蔽情報を認証するステップと、
から成ることを特徴とする認証方法。 An image capture unit in a printed matter in which a print area composed of a visible area on which visible information or a visible image is printed and an invisible area consisting of a latent image portion and a background portion on which a hidden image or hidden information is printed is arranged. And an authentication method for authenticating the hidden image or the hidden information by using an authentication system provided with an authentication terminal.
A step of photographing the printed matter using the image capturing unit and acquiring an original image of the printed area, and a step of acquiring the original image.
Using the authentication terminal, a predetermined pixel in the captured image is provided as a reference point, and the original image is reduced at a predetermined reduction rate with the reference point as a reference to generate a reduced image.
Using the authentication terminal, the reduced image is enlarged with the enlargement ratio, which is the reciprocal of the reduction ratio, with the reference point as a reference, and interpolation processing is performed so as to be the same as the number of pixels of the original image. And the steps to generate
Using the authentication terminal, a step of subtracting the luminance value of each pixel of the original image from the luminance value of each pixel of the enlarged image to generate differential image data.
A step of separating a character area and a background area other than the character area from the difference image data by using the authentication terminal.
Using the authentication terminal, the step of shifting the reference point in a predetermined direction on a pixel-by-pixel basis,
Using the authentication terminal, the step of collating the character area extracted from the difference image data with the character pattern and performing OCR, and
A step of authenticating the hidden image or the hidden information based on the result of the OCR using the authentication terminal.
An authentication method characterized by consisting of.
前記画像取込部を用いて、前記印刷物を撮影して、前記印刷領域の原画像を取得するステップと、
前記認証端末を用いて、前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成するステップと、
前記認証端末を用いて、前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成するステップと、
前記認証端末を用いて、前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成するステップと、
前記認証端末を用いて、前記差分画像データをラベリング処理することによって、ラベル番号を生成するステップと、
前記認証端末を用いて、前記差分画像データと1対1の対応が付けられるように、ラベル領域に前記ラベル番号を格納するステップと、
前記認証端末を用いて、前記ラベル番号に基づいて、前記差分画像データから文字領域と前記文字領域以外の背景領域とを分離するステップと、
前記認証端末を用いて、前記基準点を画素単位で、所定の方向にずらすステップと、
前記認証端末を用いて、前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行うステップと、
前記認証端末を用いて、前記OCRの結果に基づいて、前記隠蔽画像又は前記隠蔽情報を認証するステップと、
から成ることを特徴とする認証方法。 An image capture unit in a printed matter in which a print area composed of a visible area on which visible information or a visible image is printed and an invisible area consisting of a latent image portion and a background portion on which a hidden image or hidden information is printed is arranged. And an authentication method for authenticating the hidden image or the hidden information by using an authentication system provided with an authentication terminal.
A step of photographing the printed matter using the image capturing unit and acquiring an original image of the printed area, and a step of acquiring the original image.
Using the authentication terminal, a predetermined pixel in the captured image is provided as a reference point, and the original image is reduced at a predetermined reduction rate with the reference point as a reference to generate a reduced image.
Using the authentication terminal, the reduced image is enlarged with the enlargement ratio, which is the reciprocal of the reduction ratio, with the reference point as a reference, and interpolation processing is performed so as to be the same as the number of pixels of the original image. And the steps to generate
Using the authentication terminal, a step of subtracting the luminance value of each pixel of the original image from the luminance value of each pixel of the enlarged image to generate differential image data.
A step of generating a label number by labeling the difference image data using the authentication terminal, and
Using the authentication terminal, a step of storing the label number in the label area so that a one-to-one correspondence with the difference image data can be attached.
A step of separating a character area and a background area other than the character area from the difference image data based on the label number using the authentication terminal.
Using the authentication terminal, the step of shifting the reference point in a predetermined direction on a pixel-by-pixel basis,
Using the authentication terminal, the step of collating the character area extracted from the difference image data with the character pattern and performing OCR, and
A step of authenticating the hidden image or the hidden information based on the result of the OCR using the authentication terminal.
An authentication method characterized by consisting of.
前記最小単位領域は、第1の画線、第2の画線及び第3の画線が前記所定のピッチで配置され、
前記第1の画線と前記第2の画線が存在しない領域に前記第3の画線が配置され、
前記潜像部は前記第1の画線から構成され、前記背景部は前記第2の画線から構成され、前記可視領域は、前記第3の画線から構成され、
前記第1の画線、前記第2の画線及び前記第3の画線は、直線状領域で、互いに平行となるように配置され、
前記第1の画線と前記第2の画線とは、一方が光学的にオンの場合、他方がオフの関係、又は前記第1の画線の輝度値と前記第2の画線の輝度値との和が所定の輝度値となるような相補的な関係にあり、
前記潜像部によりポジ画像が形成され、前記背景部により前記潜像部のネガ画像が形成される請求項12又は13に記載の認証方法。 A plurality of minimum unit areas having a predetermined area are arranged at a predetermined pitch in the print area.
In the minimum unit region, a first image line, a second image line, and a third image line are arranged at the predetermined pitch.
The third image line is arranged in a region where the first image line and the second image line do not exist.
The latent image portion is composed of the first image line, the background portion is composed of the second image line, and the visible region is composed of the third image line.
The first stroke, the second stroke, and the third stroke are arranged so as to be parallel to each other in a linear region.
When one of the first image and the second image is optically on, the other is off, or the brightness value of the first image and the brightness of the second image. There is a complementary relationship so that the sum of the values is the predetermined brightness value.
The authentication method according to claim 12 or 13, wherein a positive image is formed by the latent image portion, and a negative image of the latent image portion is formed by the background portion.
前記秘密画像の画素が黒の場合、2行2列の第1のチェッカーパターンに変換され、
前記秘密画像の画素が白の場合、前記第1のチェッカーパターンと白黒が反転する2行2列の第2のチェッカーパターンに変換され、前記隠蔽画像に変換される請求項12乃至19のいずれかに記載の認証方法。 The secret image is embedded in the invisible area,
When the pixel of the secret image is black, it is converted into the first checker pattern of 2 rows and 2 columns.
When the pixel of the secret image is white, it is converted into a second checkered pattern having two rows and two columns in which the first checker pattern and black and white are inverted, and the hidden image is converted into any of claims 12 to 19. The authentication method described in.
前記印刷物を撮影して、前記印刷領域の原画像を取得するステップと、
前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成するステップと、
前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成するステップと、
前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成するステップと、
前記差分画像データから文字領域と前記文字領域以外の背景領域とを分離するステップと、
前記基準点を画素単位で、所定の方向にずらすステップと、
前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行うステップと、
前記OCRの結果に基づいて、前記隠蔽画像又は前記隠蔽情報を認証するステップと、
から成ることを特徴とする認証用プログラム。 In a printed matter in which a printed matter composed of a visible area on which visible information or a visible image is printed and an invisible area consisting of a latent image portion and a background portion on which a hidden image or hidden information is printed is arranged, the hidden image or the hidden image or An authentication program for causing a computer to authenticate the hidden information.
The step of photographing the printed matter and acquiring the original image of the printed area, and
A step of providing a predetermined pixel in the captured image as a reference point, reducing the original image at a predetermined reduction rate with the reference point as a reference, and generating a reduced image.
With the reference point as a reference, the reduced image is enlarged at an enlargement ratio that is the reciprocal of the reduction ratio, and interpolation processing is performed to be the same as the number of pixels of the original image to generate an enlarged image.
A step of generating differential image data by performing an operation of subtracting the luminance value of each pixel of the original image from the luminance value of each pixel of the enlarged image.
A step of separating a character area and a background area other than the character area from the difference image data,
A step of shifting the reference point in a predetermined direction on a pixel-by-pixel basis,
The step of collating the character area extracted from the difference image data with the character pattern and performing OCR, and
A step of authenticating the hidden image or the hidden information based on the result of the OCR, and
An authentication program characterized by consisting of.
前記印刷物を撮影して、前記印刷領域の原画像を取得するステップと、
前記撮影画像内の所定の画素を基準点として設け、前記基準点を基準として、前記原画像を所定の縮小率で縮小処理し、縮小画像を生成するステップと、
前記基準点を基準として、前記縮小画像を前記縮小率の逆数である拡大率で拡大処理し、前記原画像の画素数と同じになる補間処理を行って、拡大画像を生成するステップと、
前記拡大画像の各画素の輝度値から前記原画像の各画素の輝度値を差し引く演算を行い、差分画像データを生成するステップと、
前記差分画像データをラベリング処理することによって、ラベル番号を生成するステップと、
前記差分画像データと1対1の対応が付けられるように、ラベル領域に前記ラベル番号を格納するステップと、
前記ラベル番号に基づいて、前記差分画像データから文字領域と前記文字領域以外の背景領域とを分離するステップと、
前記基準点を画素単位で、所定の方向にずらすステップと、
前記差分画像データから抽出された前記文字領域と文字パターンとを照合し、OCRを行うステップと、
前記OCRの結果に基づいて、前記隠蔽画像又は前記隠蔽情報を認証するステップと、
から成ることを特徴とする認証用プログラム。
In a printed matter in which a printed matter composed of a visible area on which visible information or a visible image is printed and an invisible area consisting of a latent image portion and a background portion on which a hidden image or hidden information is printed is arranged, the hidden image or the hidden image or An authentication program for causing a computer to authenticate the hidden information.
The step of photographing the printed matter and acquiring the original image of the printed area, and
A step of providing a predetermined pixel in the captured image as a reference point, reducing the original image at a predetermined reduction rate with the reference point as a reference, and generating a reduced image.
A step of enlarging the reduced image at an enlargement ratio that is the reciprocal of the reduction ratio with the reference point as a reference, and performing interpolation processing that is the same as the number of pixels of the original image to generate an enlarged image.
A step of generating differential image data by performing an operation of subtracting the luminance value of each pixel of the original image from the luminance value of each pixel of the enlarged image.
A step of generating a label number by labeling the difference image data, and
A step of storing the label number in the label area so that a one-to-one correspondence with the difference image data can be attached.
A step of separating a character area and a background area other than the character area from the difference image data based on the label number, and
A step of shifting the reference point in a predetermined direction on a pixel-by-pixel basis,
The step of collating the character area extracted from the difference image data with the character pattern and performing OCR, and
A step of authenticating the hidden image or the hidden information based on the result of the OCR, and
An authentication program characterized by consisting of.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018054155A JP6979694B2 (en) | 2018-03-22 | 2018-03-22 | Authentication system, authentication method and authentication program that authenticates hidden images or hidden information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018054155A JP6979694B2 (en) | 2018-03-22 | 2018-03-22 | Authentication system, authentication method and authentication program that authenticates hidden images or hidden information |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019168767A JP2019168767A (en) | 2019-10-03 |
JP6979694B2 true JP6979694B2 (en) | 2021-12-15 |
Family
ID=68108315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018054155A Active JP6979694B2 (en) | 2018-03-22 | 2018-03-22 | Authentication system, authentication method and authentication program that authenticates hidden images or hidden information |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6979694B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117078327B (en) * | 2023-06-09 | 2024-02-13 | 国能(北京)商务网络有限公司 | Electronic invoice issuing method, management system and electronic equipment |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2871601B2 (en) * | 1995-08-15 | 1999-03-17 | 日本電気株式会社 | Character string detecting apparatus and method |
JP2000182086A (en) * | 1998-12-18 | 2000-06-30 | Toshiba Corp | Ticket issuing method and ticket collation method |
JP4495824B2 (en) * | 2000-03-21 | 2010-07-07 | 株式会社東芝 | Information processing method |
JP4649658B2 (en) * | 2005-03-15 | 2011-03-16 | 独立行政法人 国立印刷局 | Hidden image or hidden information authentication method and authentication system |
JP2007080092A (en) * | 2005-09-15 | 2007-03-29 | Toshiba Corp | Application preparation system and application preparation method |
JP4469885B2 (en) * | 2007-09-07 | 2010-06-02 | シャープ株式会社 | Image collation apparatus, image collation method, image data output processing apparatus, program, and recording medium |
JP5709132B2 (en) * | 2011-06-01 | 2015-04-30 | 独立行政法人 国立印刷局 | Printed material for preventing forgery, method for creating printed matter for preventing forgery, and system for creating printed matter for preventing forgery |
-
2018
- 2018-03-22 JP JP2018054155A patent/JP6979694B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019168767A (en) | 2019-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104067605B (en) | Shooting device and shooting image processing system | |
JP4630936B1 (en) | Image processing apparatus, image processing method, image processing program, and recording medium recording image processing program | |
CN102025809B (en) | Portable terminal apparatus, image output apparatus, method of controlling portable terminal apparatus | |
Piva | An overview on image forensics | |
US8233680B2 (en) | Method of indentifying an individual | |
CN101610334B (en) | Image forming device and control method thereof | |
JP6470646B2 (en) | Method for generating secure barcode, barcode generation system, and two-dimensional barcode | |
TW200300911A (en) | Method for reading two dimensional bar codes | |
WO2020157567A1 (en) | Authentication and tracking by hidden codes | |
JP2011130439A (en) | Image alignment method for image comparison and document authentication | |
KR101535534B1 (en) | A Creating and Verifying Method Of A Document Having Printed Means Of Preventing From Forging/Manipulating | |
JP6574920B1 (en) | Image processing system, image processing method, and program | |
TWI751426B (en) | Image processing system, image processing method and program product | |
Liang et al. | Camera-based document image mosaicing | |
MX2011009742A (en) | Optical signature to enable image correction. | |
US20060215232A1 (en) | Method and apparatus for processing selected images on image reproduction machines | |
JP2007074579A (en) | Image processing apparatus and program | |
CN105556942B (en) | Digital watermarking | |
Cai et al. | Towards data-centric face anti-spoofing: Improving cross-domain generalization via physics-based data synthesis | |
JP6979694B2 (en) | Authentication system, authentication method and authentication program that authenticates hidden images or hidden information | |
US7400776B2 (en) | Visual enhancement for reduction of visual noise in a text field | |
CN106650874B (en) | Display, anti-counterfeiting method and device for paper fiber characteristics | |
JP7392322B2 (en) | Image processing device, image processing method, program for image processing device, and document management system | |
JP3582988B2 (en) | Non-contact image reader | |
Liang et al. | Mosaicing of camera-captured document images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201016 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211012 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211015 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211109 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6979694 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |