JP4920045B2 - Method for identifying marked images based at least in part on frequency domain coefficient differences - Google Patents
Method for identifying marked images based at least in part on frequency domain coefficient differences Download PDFInfo
- Publication number
- JP4920045B2 JP4920045B2 JP2008550284A JP2008550284A JP4920045B2 JP 4920045 B2 JP4920045 B2 JP 4920045B2 JP 2008550284 A JP2008550284 A JP 2008550284A JP 2008550284 A JP2008550284 A JP 2008550284A JP 4920045 B2 JP4920045 B2 JP 4920045B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- training
- coefficient difference
- array
- elements
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/80—Recognising image objects characterised by unique random patterns
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/32—Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
- H04N1/32101—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
- H04N1/32144—Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
- H04N1/32149—Methods relating to embedding, encoding, decoding, detection or retrieval operations
- H04N1/32154—Transform domain methods
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Image Analysis (AREA)
Description
本出願は、例えばマーク付き画像(marked images)等のコンテンツを分類又は識別することに関する。 The present application relates to classifying or identifying content such as, for example, marked images.
デジタルデータ隠蔽技術は、近年盛んに研究されている分野であり、様々なデータ隠蔽方法が提唱されている。コンテンツ保護及び/又は認証を目的とする方法もあれば、秘密通信を目的とする方法もある。後者に分類されるデータ隠蔽を、本明細書ではステガノグラフィと称する。 Digital data hiding technology is a field that has been actively studied in recent years, and various data hiding methods have been proposed. Some methods aim at content protection and / or authentication, while others aim at secret communication. Data hiding classified as the latter is referred to herein as steganography.
本発明の主題は、本願の特許請求の範囲にて詳細に示され、明確に請求される。但し、特許請求の範囲に記載の主題は、操作の機構及び方法の両者に関して、その目的、特徴及び/又は利点と共に、以下の詳細な記述及び添付図面を参照することで、最も理解されよう。 The subject matter of the present invention is set forth with particularity in the appended claims and is claimed explicitly. However, the claimed subject matter will be best understood by reference to the following detailed description and the accompanying drawings, as well as its purpose, features and / or advantages, both in terms of the mechanism and method of operation.
詳細な説明
以下の詳細な説明において、特許請求の範囲に記載の主題が十分に理解されるように、具体的な詳細を多数示している。しかしながら、それらの具体的な詳細通りでなくとも特許請求の範囲に記載の主題を実行できることは、当業者に理解されよう。また、特許請求の範囲に記載の主題が不明確にならないように、公知の方法、手順、構成要素、及び/又は回路を詳細には説明していない場合もある。
DETAILED DESCRIPTION In the following detailed description, numerous specific details are set forth in order to provide a thorough understanding of claimed subject matter. However, one of ordinary skill in the art appreciates that the subject matter recited in the claims can be practiced without the specific details. In other instances, well-known methods, procedures, components, and / or circuits have not been described in detail so as not to obscure the claimed subject matter.
以下の詳細な説明の中には、コンピューティングシステム(コンピュータ及び/又はコンピューティングシステムメモリ等)に記憶されたデータビット及び/又は2値デジタル信号の操作のアルゴリズム及び/又は記号表現によって記載している部分がある。これらのアルゴリズム的記述及び/又は表現は、データ処理分野の当業者が自分の仕事内容を他の当業者に伝達するために用いる技術である。アルゴリズムは、本明細書で、また一般的にも、所望の結果をもたらす操作及び/又は同様な処理の自己矛盾がないシーケンスと考えられる。上記操作及び/又は処理は、物理量の物理的操作を伴うことがある。これらの物理量は、必ずしもそうとは限らないが、通常、記憶、転送、結合、比較、及び/又は他の操作が可能な電気信号及び/又は磁気信号の形態を採ることとなる。主として一般的使用法の点から、これらの信号をビット、データ、値、要素、記号、文字、用語、数、及び/又は数詞等と呼ぶ方が便利な場合がある。しかしながら、これらの用語及び類似の用語は全て適当な物理量と関連付けられるものであり、単なる便宜的なラベルに過ぎないことを理解されたい。特に明記しない限り、以下の記載から明白であるように、本明細書中、「処理」、「演算」、「計算」、及び/又は「決定」等の用語を用いた記載は、コンピューティングプラットフォームのプロセッサ、メモリ、レジスタ、及び/又は他の情報記憶デバイス、情報送信デバイス、及び/又は情報表示デバイスにおいて物理電子量及び/又は磁気量、及び/又は他の物理量として表されるデータを処理及び/又は変換するコンピューティングプラットフォーム(コンピュータ又は類似の電子演算デバイス等)により実行される動作及び/又は処理を指すということが理解される。 In the detailed description that follows, an algorithm and / or symbolic representation of the manipulation of data bits and / or binary digital signals stored in a computing system (such as a computer and / or computing system memory) is described. There is a part. These algorithmic descriptions and / or representations are techniques used by those skilled in the data processing arts to convey their work to others skilled in the art. An algorithm is herein and generally considered a self-consistent sequence of operations and / or similar processes that yields the desired result. The above operations and / or processes may involve physical manipulation of physical quantities. These physical quantities are typically, but not necessarily, in the form of electrical and / or magnetic signals that can be stored, transferred, combined, compared, and / or otherwise manipulated. It may be convenient to refer to these signals as bits, data, values, elements, symbols, characters, terms, numbers, and / or numbers, primarily in terms of general usage. It should be understood, however, that these and similar terms are all associated with the appropriate physical quantities and are merely convenient labels. Unless stated otherwise, the description using terms such as “processing”, “arithmetic”, “calculation”, and / or “determining” is used herein to be a computing platform, as will be apparent from the following description. Process data represented as physical electronic quantities and / or magnetic quantities and / or other physical quantities in a processor, memory, register, and / or other information storage device, information transmission device, and / or information display device It is understood that it refers to operations and / or processes performed by a computing platform (such as a computer or similar electronic computing device) that transforms.
JPEG画像の使用の普及により、近年、JPEG画像用のステガノグラフィックツールが増えているが、なかでも、モデルベースステガノグラフィ(MB)、F5及びOutGuessが最新のものである。しかしながら、隠しデータを含む画像を識別する新たなツールの開発が依然として望まれている。特許請求の範囲に記載の主題によれば、本明細書に記載される一実施形態は、画像2次元配列(image 2−D array)及びJPEG2次元配列から少なくとも部分的に導かれる統計モーメントに少なくとも部分的に基づく方法を含む。この特定の実施形態において、1次ヒストグラム(first order histogram)及び/又は2次ヒストグラム(second order histogram)を用いてもよいが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。例えば、他の実施形態において、例えば、高次ヒストグラム(higher order histograms)を利用してもよい。しかしながら、さらにこの特定の実施形態において、これらのヒストグラムから、2次元特性関数のモーメントもまた用いられるが、やはり、他の実施形態はこの点において限定されない。例えば、高次モーメントを用いてもよい。 Due to the widespread use of JPEG images, steganographic tools for JPEG images have increased in recent years, among which model-based steganography (MB), F5 and OutGuess are the latest. However, the development of new tools for identifying images containing hidden data remains desirable. According to the claimed subject matter, one embodiment described herein is at least a statistical moment derived at least partially from an image 2-D array and a JPEG two-dimensional array. Including partially based methods. In this particular embodiment, a first order histogram and / or a second order histogram may be used, but the claimed subject matter is not limited in scope in this respect. For example, in other embodiments, for example, higher order histograms may be utilized. However, in this particular embodiment, the moments of the two-dimensional characteristic function are also used from these histograms, but again, other embodiments are not limited in this respect. For example, a higher order moment may be used.
コンピュータ利用の普及により、インターネットの広範な使用が加速している。その結果、何百万もの映像が毎日インターネット上に流れている。近年、JPEG(Joint Photographic Experts Group)画像のやりとりはますます頻繁に行われている。JPEG画像を操作するステガノグラフィ技術が数多く公開され、公的に利用されている。この種の技術の大半は、JPEGドメイン内の8×8ブロック離散コサイン変換(BDCT)係数を変更することで隠しデータを埋め込んでいると思われる。ステガノグラフィ技術のなかで、最近公開されたスキームであるOutGuess、F5及びモデルベースステガノグラフィ(MB)が最新のものと思われる。以下の文献を参照されたい:N.Provos,“Defending against statistical steganalysis,”10th USENIX Security Symposium,Washington DC,USA,2001;A.Westfeld,“F5 a steganographic algorithm:High capacity despite better steganalysis,”4th International Workshop on Infor−mation Hiding,Pittsburgh,PA,USA,2001;P.Sallee,“Model−based steganography,”International Work−shop on Digital Watermarking,Seoul,Korea,2003。OutGuessは、カバー画像の冗長性を用いて隠蔽対象のデータを埋め込む。ここで、カバー画像とは、隠しデータが埋め込まれていないコンテンツを指す。JPEG画像に対し、OutGuessは、BDCTヒストグラムに少なくとも部分的に基づいて統計量を保存しようとする。さらに、OutGuessは、冗長なBDCT係数を識別し、これらの係数にデータを埋め込んで、データ埋め込みの影響を低減する。その上、データが埋め込まれていない係数を調整することで、オリジナルBDCTヒストグラムを保存しようとする。Jsteg、F3及びF4の発展形であるF5は以下の技術:ストラドリング(straddling)及び行列符号化(matrix coding)を用いる。ストラドリングは、メッセージをカバー画像に出来るだけ均一に分散させる。行列符号化は、埋め込み効率(本明細書中ではBDCT係数の変化毎の埋め込みビット数と定義する)を向上させる傾向がある。MB埋め込みは、埋め込みデータをカバー媒体と相関させようとするものである。これは、カバー媒体を2つの部分に分け、第1の部分が与えられた場合に第2の部分の分布のパラメーターをモデル化し、そのモデルと被埋め込みメッセージを用いて第2の部分を符号化し、2つの部分を組み合わせてステゴ媒体を形成することによって実装される。具体的には、コーシー分布を用いてJPEG BDCTモードヒストグラムがモデル化されており、埋め込みはBDCTモードの低精度ヒストグラムを変化させないままにしようとするものである。 The widespread use of the Internet is accelerating due to the widespread use of computers. As a result, millions of videos are flowing on the Internet every day. In recent years, exchange of JPEG (Joint Photographic Experts Group) images has been performed more and more frequently. Many steganographic techniques for manipulating JPEG images have been released and are publicly used. Most of this type of technology appears to embed hidden data by changing 8x8 block discrete cosine transform (BDCT) coefficients in the JPEG domain. Among steganographic techniques, the recently published schemes OutGuess, F5 and model-based steganography (MB) appear to be the latest. See the following references: Provos, “Defending Against Statistical Steganization,” 10th USENIX Security Symposium, Washington DC, USA, 2001; Westfeld, “F5 a steganographic algorithm: High capacity de- fect better stegansis,” 4th International Workshop on Information-Hidging, Pittsburgh; Salee, “Model-based steganography,” International Work-shop on Digital Watermarking, Seoul, Korea, 2003. OutGuess embeds the data to be concealed using the redundancy of the cover image. Here, the cover image refers to content in which hidden data is not embedded. For JPEG images, OutGuess attempts to store statistics based at least in part on the BDCT histogram. In addition, OutGuess identifies redundant BDCT coefficients and embeds data in these coefficients to reduce the effects of data embedding. In addition, it tries to preserve the original BDCT histogram by adjusting the coefficients that are not embedded with data. F5, an extension of Jseg, F3 and F4, uses the following techniques: straddling and matrix coding. Stradling distributes the message as evenly as possible on the cover image. Matrix coding tends to improve embedding efficiency (defined herein as the number of embedding bits per change in BDCT coefficients). MB embedding attempts to correlate embedded data with a cover medium. This divides the cover medium into two parts, models the distribution parameters of the second part given the first part, and encodes the second part using the model and the embedded message Implemented by combining the two parts to form a stego medium. Specifically, a JPEG BDCT mode histogram is modeled using a Cauchy distribution, and embedding attempts to keep the low accuracy histogram of the BDCT mode unchanged.
ステゴ画像内の隠し情報を検出するため、多くのステガナリシス方法が提唱されている。高次統計量を用いる汎用ステガナリシス方法がFaridによって提唱されている。以下の文献を参照されたい:H.Farid,“Detecting hidden messages using higher−order statis−tical models,”International Conference on Image Processing,Rochester,NY,USA,2002(以下、「Farid」)。直交ミラーフィルターを用いてテスト画像をウェーブレットサブバンドに分解する。高次統計量を、高周波サブバンドのウェーブレット係数から計算して、一群の特徴を形成する。高周波サブバンドのウェーブレット係数の予測誤差から、別の一群の特徴も同様に示される。文献:Y.Q.Shi,G.Xuan,D.Zou,J.Gao,C.Yang,Z.Zhang,P.Chai,W.Chen,C.Chen,“Steganalysis based on moments of characteristic functions using wavelet decomposition,prediction−error image,and neural network,”International Conference on Multimedia and Expo,Amsterdam,Netherlands,2005(以下、「Shi et al.」)に記載されている方法では、テスト画像の特性関数の統計モーメント、その予測誤差画像、及びそれらの離散ウェーブレット変換(DWT)サブバンドを特徴として用いる。 Many steganalysis methods have been proposed for detecting hidden information in stego images. A generalized steganalysis method using higher order statistics has been proposed by Farid. See the following references: Farid, “Detecting hidden messages using high-order statistic-tick models,” International Conference on Image Processing, Rochester, NY, USA, 2002 (hereinafter “Farid”). Decompose the test image into wavelet subbands using orthogonal mirror filters. Higher order statistics are calculated from the wavelet coefficients of the high frequency subbands to form a group of features. Another group of features is similarly shown from the prediction error of the wavelet coefficients of the high frequency subbands. Literature: Y.M. Q. Shi, G .; Xuan, D.C. Zou, J. et al. Gao, C.I. Yang, Z .; Zhang, P.A. Chai, W .; Chen, C.I. Chen, "Steganalysis based on moments of characteristic functions using wavelet decomposition, prediction-error image, and neural network," International Conference on Multimedia and Expo, Amsterdam, Netherlands, 2005 (hereinafter referred to as "Shi et al.") Are described in The method uses the statistical moment of the characteristic function of the test image, its prediction error image, and their discrete wavelet transform (DWT) subbands as features.
しかしながら、特にJPEGステガノグラフィックスキームに対処できるように設計されたステガナリシス方法がFridrichによって提唱されている。以下の文献を参照されたい:J.Fidrich,“Feature−based steganalysis for JPEG images and its implications for future design of steganographic schemes,”6th Information Hiding Workshop,Toronto,ON,Canada,2004。当該方法は、Outguess、F5及びMBによって生成された隠しデータを有する画像を検出する場合、比較的小さなサイズの厳選された特徴を1セット用いるという点で、上述のような他のステガナリシス方法よりも性能が優れている。以下の文献を参照されたい:M.Kharrazi,H.T.Sencar,N.D.Memon,“Benchmarking steganographic and steganalysis techniques,”Security,Steganography,and Watermarking of Multimedia Contents 2005,San Jose,CA,USA,2005。 However, Fridrich has proposed a steganalysis method designed specifically to deal with the JPEG steganographic scheme. See the following references: Fidrich, “Feature-based steganization for JPEG images and it's implications for future design, steganographic schemes,” 6th Information Hidden Corp. The method uses a set of carefully selected features of relatively small size when detecting images with hidden data generated by Outlooks, F5 and MB over other steganalysis methods as described above. Excellent performance. See the following literature: Kharrazi, H .; T.A. Sencar, N .; D. Memon, “Benchmarking steganographic and steganary techniques,” Security, Steganography, and Watermarking of Multimedia Content, 2005, San Jose, CA.
近年、スペクトル拡散法によって隠蔽されたデータを検出するスキームが開発された。そのスキームでは、画素間の依存性を用いており、マルコフ連鎖モデルを採用している。以下の文献を参照されたい:K.Sullivan,U.Madhow,S.Chandrasekaran,and B.S.Manjunath,“Steganalysis of Spread Spectrum Data Hiding Exploiting Cover Memory,”the International Society for Optical Engineering,Electronic Imaging,San Jose,CA,USA,2005。当該手法においては、所与のテスト画像の経験的遷移行列が形成される。この行列は、ビット深度8のグレースケール画像の一画像に対して256×256の次元数を有する。即ち、この行列は65,536個の要素を有する。要素数が多いので、全ての要素を特徴として用いるは難しい。著者は、特徴として、行列の主対角線に沿った最大の確率のうち幾つかをその隣接要素と一緒に選択し、さらに、主対角線に沿ったその他の確率をランダムに選択することとした。当然ながら、この特徴選択処理によって幾分の情報損失は免れない。さらに、上記方法は水平方向に沿ったマルコフ連鎖を用いており、従って、この手法は必ずしもデジタル画像の2次元性を反映するものではない。 In recent years, schemes have been developed to detect data concealed by spread spectrum techniques. The scheme uses dependency between pixels and employs a Markov chain model. See the following references: Sullivan, U .; Madhow, S .; Chanderaskaran, and B.C. S. Manjunath, “Steganalysis of Spread Spectrum Data Hiding Exploring Cover Memory,“ The International Society for Optical Engineering, Ill. In this approach, an empirical transition matrix for a given test image is formed. This matrix has 256 × 256 dimensions for one image of a grayscale image with a bit depth of 8. That is, this matrix has 65,536 elements. Since there are many elements, it is difficult to use all elements as features. The author decided to select some of the maximum probabilities along the main diagonal of the matrix along with their neighbors as features, and then randomly select other probabilities along the main diagonal. Naturally, some information loss cannot be avoided by this feature selection process. Furthermore, the above method uses a Markov chain along the horizontal direction, and therefore this approach does not necessarily reflect the two-dimensional nature of the digital image.
データが隠蔽されているJPEG画像と隠しデータを含まないJPEG画像との識別が依然として望まれている。特許請求の範囲に記載の主題に係る一実施形態ではJPEG2次元配列を用いている。この特定の実施形態においては、JPEG量子化ブロックDCT係数に少なくとも部分的に基づいてJPEG2次元配列が形成される。同様に、当該特定の実施形態においては水平、垂直及び対角線方向に沿って差分JPEG2次元配列(difference JPEG 2−D arrays)を形成してもよく、マルコフ過程を適用してこれらの差分JPEG2次元配列をモデル化することにより、2次統計量をステガナリシスに利用してもよい。差分JPEG2次元配列の利用に加え、閾値処理技術を適用して、遷移確率行列の次元数を下げ、該スキームの計算量をより処理し易くしてもよい。 There remains a need to distinguish between JPEG images with hidden data and JPEG images without hidden data. One embodiment of the claimed subject matter uses a JPEG two-dimensional array. In this particular embodiment, a JPEG two-dimensional array is formed based at least in part on the JPEG quantized block DCT coefficients. Similarly, in the particular embodiment, differential JPEG 2-D arrays may be formed along horizontal, vertical and diagonal directions, and these differential JPEG 2-dimensional arrays may be applied by applying a Markov process. The second order statistics may be used for steganalysis by modeling. In addition to the use of the differential JPEG two-dimensional array, a threshold processing technique may be applied to reduce the number of dimensions of the transition probability matrix and make the calculation amount of the scheme easier to process.
この特定の実施形態においては、ステガナリシスは、2クラスパターン認識のタスクと考えられる。即ち、所与の画像は、ステゴ画像(隠しデータを保有するもの)又は非ステゴ画像(隠しデータを保有しないもの)のいずれかとして分類される。
上述したように、OutGuessやMBといった最新のステガノグラフィ方法では、データ隠蔽によるBDCT係数の変化を比較的小さいままにして検出をより困難にするということに、多大な努力がなされてきた。これらの方法は、特に、JPEG係数のヒストグラムの変化を比較的小さいままにしようとするものである。従って、このような状況では、当該実施形態に用いられるように、高次統計量がステガナリシスにおける特徴として望ましい。なお、具体的に、当該実施形態においては2次統計量を用いているが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。
In this particular embodiment, steganalysis is considered a two-class pattern recognition task. That is, a given image is classified as either a stego image (one that holds hidden data) or a non-stego image (one that does not hold hidden data).
As described above, in the latest steganography methods such as OutGuess and MB, much effort has been made to make detection more difficult by keeping the change in BDCT coefficients due to data hiding relatively small. These methods in particular attempt to keep the change in the histogram of JPEG coefficients relatively small. Therefore, in such a situation, higher-order statistics are desirable as a feature in steganalysis as used in this embodiment. Note that, specifically, the second-order statistics are used in the embodiment, but the scope of the subject matter described in the claims is not limited in this respect.
当該実施形態においては、JPEG2次元配列が形成される。同様に、各種方向に沿った差分JPEG2次元配列が形成される。マルコフランダム過程を用いて差分JPEG2次元配列をモデル化するために、遷移確率行列を構成してマルコフ過程を特徴付けてもよく、この遷移確率行列から特徴が導出される。本明細書中では、いわゆるワンステップ遷移確率行列を、低減された計算量に対して用いるが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。例えば、他の実施形態においては、より複雑な遷移確率行列が用いられてもよい。詳細は後述するが、計算量をさらに低減するため、閾値処理技術を適用することもできる。 In this embodiment, a JPEG two-dimensional array is formed. Similarly, a differential JPEG two-dimensional array along various directions is formed. In order to model a differential JPEG two-dimensional array using a Markov random process, a transition probability matrix may be constructed to characterize the Markov process, and features are derived from this transition probability matrix. In the present description, a so-called one-step transition probability matrix is used for the reduced computational complexity, but the claimed subject matter is not limited in scope in this respect. For example, in other embodiments, a more complex transition probability matrix may be used. Although details will be described later, a threshold processing technique can be applied in order to further reduce the amount of calculation.
当該実施形態においては、画像のDCTブロック表現から特徴が生成されるが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。例えば、別の実施形態においては、画像の別の周波数領域表現が用いられてもよい。しかしながら、やはり、この特定の実施形態においては、JPEG BDCT係数の特性を検討するのが望ましい。 In this embodiment, features are generated from the DCT block representation of the image, but the claimed subject matter is not limited in scope in this respect. For example, in another embodiment, another frequency domain representation of the image may be used. However, again, in this particular embodiment, it is desirable to consider the characteristics of the JPEG BDCT coefficient.
所与の画像については、JPEG量子化テーブルを用いて量子化されているもののジグザグスキャン、ランレングス符号化、及びハフマン符号化が行われていない8×8ブロックDCT係数を含む2次元配列を検討されたい。即ち、この2次元配列は所与の画像と同じサイズであり、所定の8×8ブロックを有しており、この所定の8×8ブロックは対応するJPEG量子化8×8ブロックDCT係数で満たされている。次に、図1に示された2次元配列を得るために、絶対値をDCT係数に適用されたい。当該実施形態においては、この得られた2次元配列をJPEG2次元配列と称す。詳細は後述するが、この特定の実施形態における特徴はJPEG2次元配列から形成される。 For a given image, consider a two-dimensional array containing 8x8 block DCT coefficients that have been quantized using the JPEG quantization table but have not been zigzag scanned, run-length coded, or Huffman coded I want to be. That is, this two-dimensional array is the same size as a given image and has a predetermined 8 × 8 block, which is filled with the corresponding JPEG quantized 8 × 8 block DCT coefficients. Has been. Next, apply the absolute values to the DCT coefficients to obtain the two-dimensional array shown in FIG. In the embodiment, the obtained two-dimensional array is referred to as a JPEG two-dimensional array. Although described in detail below, the features in this particular embodiment are formed from a JPEG two-dimensional array.
絶対値操作を適用しなければ、JPEG BDCT量子化係数は正、又は負、又はゼロのいずれかである。通常、BDCT係数はガウス分布に従わないが、これらの係数は必ずしも互いに対し統計的に独立ではない。ゼロでないBDCT係数の大きさは、例えば、ジグザグスキャン順序に沿って相関していてもよい。従って、水平、垂直、及び対角線方向に沿ってBDCT係数の絶対値間に相関が存在してもよい。このことは、以下に示す図3を確認することで証明される。即ち、すぐ近くに(図3では水平方向に)隣接している2つのBDCT係数の絶対値の差分はゼロ周辺に著しく集中し、ラプラス様分布を呈する。同様のことが垂直及び対角線方向においても認められる。即ち、後述するように、この特定の実施形態は上記係数のこの態様を利用している。しかしながら、言うまでもなく、特許請求の範囲に記載の主題はこの点において範囲を限定されない。 Without applying absolute value manipulation, the JPEG BDCT quantization factor is either positive, negative, or zero. Normally, BDCT coefficients do not follow a Gaussian distribution, but these coefficients are not necessarily statistically independent of each other. The magnitudes of non-zero BDCT coefficients may be correlated, for example, along a zigzag scan order. Accordingly, there may be a correlation between the absolute values of the BDCT coefficients along the horizontal, vertical, and diagonal directions. This is proved by confirming FIG. 3 shown below. That is, the difference between the absolute values of two adjacent BDCT coefficients that are immediately adjacent to each other (in the horizontal direction in FIG. 3) is remarkably concentrated around zero and exhibits a Laplace-like distribution. The same is observed in the vertical and diagonal directions. That is, as will be discussed later, this particular embodiment utilizes this aspect of the coefficients. However, it will be appreciated that the claimed subject matter is not limited in scope in this respect.
データ埋め込みによってもたらされる乱れは、オリジナル画像よりも予測誤差画像において、より明らかに現れる。故に、JPEG2次元配列において、ある要素とその隣接要素の1つとの差分に注意することが望ましい。従って、この特定の実施形態においては以下の4つの差分JPEG2次元配列を用いるが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。 The disturbance caused by data embedding appears more clearly in the prediction error image than in the original image. Therefore, it is desirable to pay attention to the difference between an element and one of its neighboring elements in a JPEG two-dimensional array. Thus, although this particular embodiment uses the following four differential JPEG two-dimensional arrays, the claimed subject matter is not limited in scope in this respect.
所与の画像から生成されるJPEG2次元配列を A JPEG 2D array generated from a given image
で表すが、ここで、SuはJPEG2次元配列の水平方向におけるサイズであり、Svは垂直方向におけるサイズである。次いで、図2に示すように、差分配列を以下のように生成することができる:
Fh(u,v)=F(u,v)−F(u+1,v), (1)
Fv(u,v)=F(u,v)−F(u,v+1), (2)
Fd(u,v)=F(u,v)−F(u+1,v+1), (3)
Fmd(u,v)=F(u+1,v)−F(u,v+1), (4)
(式中、
Here, S u is the size in the horizontal direction of the JPEG two-dimensional array, and S v is the size in the vertical direction. Then, as shown in FIG. 2, a difference array can be generated as follows:
F h (u, v) = F (u, v) −F (u + 1, v), (1)
Fv (u, v) = F (u, v) -F (u, v + 1), (2)
F d (u, v) = F (u, v) −F (u + 1, v + 1), (3)
F md (u, v) = F (u + 1, v) −F (u, v + 1), (4)
(Where
であり、
Fh(u,v),Fv(u,v),Fd(u,v),Fmd(u,v)は、それぞれ水平、垂直、主対角線、及び副対角線の方向における差分配列である)。
And
F h (u, v), F v (u, v), F d (u, v), and F md (u, v) are differential arrays in the horizontal, vertical, main diagonal, and sub-diagonal directions, respectively. is there).
上記に示唆したように、上記差分配列の要素の分布はラプラス様であってもよい。大半の差分値はゼロに近い。評価のため、品質係数が70〜90のJPEG画像7560個を含む画像セットを集積した。このJPEG画像セットから生成された水平方向の差分JPEG2次元配列のヒストグラムの算術平均と、この画像セットからランダムに選択された一画像から生成された水平方向の差分JPEG2次元配列のヒストグラムとを、それぞれ図3(a)及び(b)に示す。図から分かる通り、水平方向の差分JPEG2次元配列の大半の要素が、Tを十分に大きくとれば、[−T,T]の区間内となる。T={1,2,3,4,5,6,7}の場合に[−T,T]の範囲内となる画像セットから生成された水平方向の差分JPEG2次元配列の要素のパーセンテージの平均値と分散値を表1に示す。図3も表1も、水平方向の差分JPEG2次元配列の要素の分布がラプラス様であるという見解を裏付ける傾向を有する。垂直及び対角線方向等の他の方向に沿った差分JPEG2次元配列についても同様なことが確認される。 As suggested above, the distribution of the elements of the difference array may be Laplace-like. Most difference values are close to zero. For evaluation, an image set including 7560 JPEG images having a quality factor of 70 to 90 was accumulated. An arithmetic average of a histogram of a horizontal difference JPEG two-dimensional array generated from this JPEG image set and a histogram of a horizontal difference JPEG two-dimensional array generated from one image randomly selected from this image set, respectively. It shows to Fig.3 (a) and (b). As can be seen from the figure, most elements of the differential JPEG two-dimensional array in the horizontal direction fall within the interval [−T, T] if T is sufficiently large. Average percentage of elements of horizontal difference JPEG two-dimensional array generated from image set that falls within the range [−T, T] when T = {1, 2, 3, 4, 5, 6, 7} Values and variance values are shown in Table 1. 3 and Table 1 both tend to support the notion that the distribution of the elements of the horizontal difference JPEG two-dimensional array is Laplace-like. The same is confirmed for the differential JPEG two-dimensional array along other directions such as the vertical and diagonal directions.
上述したように、OutGuess及びMB等の最新のステガノグラフィ方法では、データ埋め込みによるJPEG BDCT係数のヒストグラムの変化を比較的小さいままにするように努力がなされてきた。従って、JPEGステガノグラフィのステガナリシスにおいては高次統計量が有用な場合がある。当該実施形態においては、計算量を著しく高めないように2次統計量を用いているが、実施形態と用途によっては、2次を超える高次の統計量の使用が望ましい場合もある。 As described above, in the latest steganographic methods such as OutGuess and MB, efforts have been made to keep the change in the histogram of JPEG BDCT coefficients due to data embedding relatively small. Therefore, higher order statistics may be useful in steganalysis of JPEG steganography. In this embodiment, secondary statistics are used so as not to significantly increase the amount of calculation. However, depending on the embodiment and application, it may be desirable to use higher-order statistics exceeding the second order.
当該実施形態においては、マルコフランダム過程を用いて差分JPEG2次元配列を特徴付けている。具体的に、遷移確率行列を用いてマルコフ過程を特徴付けてもよい。いわゆるワンステップ遷移確率行列とnステップ遷移確率行列とがあり、大まかに言えば、前者は、差分JPEG2次元配列においてすぐ近くに隣接する2つの要素間の遷移確率に関し、後者は、(n−1)個の要素分離れた2つの要素間の遷移確率に関する。ステガナリシス性能と処理可能な計算量のバランスから、当該実施形態においては図4に示すようなワンステップ遷移確率行列を用いるが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。 In this embodiment, the differential JPEG two-dimensional array is characterized using a Markov random process. Specifically, the Markov process may be characterized using a transition probability matrix. There are so-called one-step transition probability matrices and n-step transition probability matrices. Roughly speaking, the former relates to transition probabilities between two adjacent elements in the difference JPEG two-dimensional array, and the latter is (n−1). ) Related to the transition probability between two separated elements. Although the one-step transition probability matrix as shown in FIG. 4 is used in this embodiment from the balance between the steganalysis performance and the processing amount that can be processed, the scope of the subject matter described in the claims is not limited in this respect.
計算量をさらに低減するため、閾値処理技術を用いてもよいが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。当該実施形態においては、閾値、即ち本明細書中におけるTが用いられる。従って、値が{−T,−T+1,...,−1,0,1,...,T−1,T}の範囲内となる、差分JPEG2次元配列の要素が検討される。要素の値がTより大きいか−Tより小さい場合、それに対応して上記要素はT又は−Tで表される。この手順によって、次元数(2T+1)×(2T+1)の遷移確率行列が得られる。言うまでもなく、ここでも、特許請求の範囲に記載の主題は、閾値処理を用いることに、又は上記特定の閾値処理の詳細に範囲を限定されない。例えば、他の実施形態においては、閾値レベルは異なる。しかしながら、当該実施形態においては、水平、垂直、主対角線、及び副対角線方向の差分JPEG2次元配列に関連する4つの行列の要素が以下のように与えられる: To further reduce the computational complexity, thresholding techniques may be used, but the claimed subject matter is not limited in scope in this respect. In this embodiment, a threshold value, that is, T in the present specification is used. Therefore, the values are {−T, −T + 1,. . . , -1, 0, 1,. . . , T−1, T}, elements of the differential JPEG two-dimensional array are considered. If the value of an element is greater than T or less than -T, the element is correspondingly represented by T or -T. By this procedure, a transition probability matrix having the number of dimensions (2T + 1) × (2T + 1) is obtained. Of course, again, the claimed subject matter is not limited in scope to using thresholding or to the details of the particular thresholding described above. For example, in other embodiments, the threshold levels are different. However, in this embodiment, the four matrix elements associated with the differential JPEG two-dimensional array in the horizontal, vertical, main diagonal, and sub-diagonal directions are given as follows:
(式中、 (Where
及び as well as
である)。 Is).
要するに、当該実施形態においては、1つの遷移確率行列に対して(2T+1)×(2T+1)個の要素が得られる。故に、4×(2T+1)×(2T+1)個の要素が生成される。同様に、これらをステガナリシスにおける特徴として用いてもよい。換言すれば、この特定の実施形態では、ステガナリシスにおいて4×(2T+1)×(2T+1)個の特徴ベクトルが生成される。 In short, in this embodiment, (2T + 1) × (2T + 1) elements are obtained for one transition probability matrix. Therefore, 4 × (2T + 1) × (2T + 1) elements are generated. Similarly, these may be used as features in steganalysis. In other words, in this particular embodiment, 4 × (2T + 1) × (2T + 1) feature vectors are generated in steganalysis.
図3及び表1に示したデータから分かる通り、この実施例においてTは4に設定されているが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。故に、当該実施形態においては、要素の絶対値が4より大きい場合、その要素は、符号はそのままで絶対値4に置き換えられる。得られる遷移確率行列は差分JPEG2次元配列に対して9×9の行列である。即ち、遷移確率行列当たり9×9=81の要素となり、つまり、この特定の実施形態において81×4=324の要素となる。この特定の実施形態における特徴構成を図5に示すブロック図によって説明する。 As can be seen from the data shown in FIG. 3 and Table 1, T is set to 4 in this example, but the claimed subject matter is not limited in scope in this respect. Therefore, in this embodiment, when the absolute value of an element is larger than 4, the element is replaced with the absolute value 4 with the sign unchanged. The obtained transition probability matrix is a 9 × 9 matrix for the difference JPEG two-dimensional array. That is, there are 9 × 9 = 81 elements per transition probability matrix, ie, 81 × 4 = 324 elements in this particular embodiment. The characteristic configuration in this specific embodiment will be described with reference to the block diagram shown in FIG.
様々な状況でデータ(本明細書においては特徴と称す)を解析するために、種々の技術を用いることが出来る。ここでは、「分散分析処理」という用語を、以下のような処理又は技術を指す際に用いる: 上記処理又は技術を適用した結果、統計的変動に起因する差分が非統計的変動に起因する差分と十分に区別されて、このような処理又は技術の適用に少なくとも部分的に基づいてデータの相関付け、セグメント化、分類、解析、又は別な特徴付けがなされる処理又は技術。例として、人工知能技術及び処理(パターン認識等)、ニュートラルネットワーク、遺伝的処理、経験則、及びサポートベクターマシン(SVM)等が挙げられるが、これらは特許請求の範囲に記載の主題の範囲を限定するものではない。 Various techniques can be used to analyze data (referred to herein as features) in various situations. Here, the term “ANOVA” is used to refer to the following processes or techniques: As a result of applying the above processes or techniques, differences resulting from statistical fluctuations are differences resulting from non-statistical fluctuations Processes or techniques that are sufficiently distinguished from each other to correlate, segment, classify, analyze, or otherwise characterize data based at least in part on the application of such processes or techniques. Examples include artificial intelligence technology and processing (such as pattern recognition), neutral networks, genetic processing, heuristics, support vector machines (SVM), etc., which are within the scope of the claimed subject matter. It is not limited.
特許請求の範囲に記載の主題は範囲をSVM又はSVM処理に限定されないものの、2クラス分類に対し便利な手法であってもよい。例えば、以下の文献を参照されたい:C.Cortes and V.Vapnik,“Support−vector networks,”in Machine Learning,20,273−297,Kluwer Academic Publishers,1995。例えば、SVMを用いて、線形及び非線形の場合又は状況を処理することができる。線形分離可能な場合においては、例えば、SVM分類子を適用して、ポジティブパターンをネガティブパターンから分離する超平面が求められる。 The claimed subject matter is not limited to SVM or SVM processing, but may be a convenient technique for two-class classification. For example, see the following literature: C.I. Cortes and V.M. Vapnik, “Support-vector networks,” in Machine Learning, 20, 273-297, Kluwer Academic Publishers, 1995. For example, SVM can be used to handle linear and non-linear cases or situations. When linear separation is possible, for example, an SVM classifier is applied to obtain a hyperplane that separates positive patterns from negative patterns.
故に、例えばShi et al.はニューラルネットワークを用いたが、当該実施形態ではサポートベクターマシン(SVM)を分類子として用いる。SVMは超平面分類子という考え方に少なくとも部分的に基づいており、ラグランジュ乗数を用いて、ポジティブパターンをネガティブパターンから区別する分離超平面を求めるものである。特徴ベクトルが1次元(1−D)である場合、分離超平面は、数軸上の一点として与えられる。SVMは、線形分離可能な場合及び非線形分離可能な場合のどちらにも対処できる。ここで、トレーニングデータ対を{yi,ωi},i=1,...,l(式中、 Thus, for example, Shi et al. Used a neural network, but in this embodiment, a support vector machine (SVM) is used as a classifier. SVM is based at least in part on the idea of hyperplane classifiers, which use a Lagrange multiplier to determine a separation hyperplane that distinguishes positive patterns from negative patterns. When the feature vector is one-dimensional (1-D), the separation hyperplane is given as a point on several axes. SVM can deal with both linear separable cases and non-linear separable cases. Here, the training data pairs are represented as {y i , ω i }, i = 1,. . . , L (where
は特徴ベクトルであり、Nは特徴ベクトルの次元数であり、ポジティブ/ネガティブパターンクラスに対しωi=±1である)で表す。ここにおいては、隠しデータを含む画像(ステゴ画像)をポジティブパターンとみなし、隠しデータを含まない画像をネガティブパターンとみなしているが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。線形サポートベクトル手法では、1つの超平面H:wTy+b=0と、2つの超平面H1:wTy+b=−1及びH2:wTy+b=1とを求める。上記2つの超平面H1及びH2は、Hに平行で且つHまでの距離が実質的に等しいが、H1とH2との間にデータ点がないためH1とH2との間の距離をうまく広げることができないものである。式中、w及びbはパラメーターである。SVMをトレーニングしてしまえば、データから選択されたzがw及びbを用いて分類される。 Is a feature vector, N is the number of dimensions of the feature vector, and ω i = ± 1 for the positive / negative pattern class. Here, an image including hidden data (stego image) is regarded as a positive pattern, and an image not including hidden data is regarded as a negative pattern. However, the scope of the claimed subject matter is not limited in this respect. . In the linear support vector method, one hyperplane H: w T y + b = 0, two hyperplanes H 1 : w T y + b = −1 and H 2 : w T y + b = 1 are obtained. The two hyperplanes H 1 and H 2 is the distance to and H is parallel to H are substantially equal, between H 1 and H 2 because there is no data points between the H 1 and H 2 It is something that can not be extended well. In the formula, w and b are parameters. Once the SVM is trained, z selected from the data is classified using w and b.
非線形分離可能な場合において、「学習機械(learning machine)」は、入力特徴ベクトルを、線形超平面が潜在的に配置される高次元空間に写像する。当該実施形態において、非線形特徴空間から線形高次元空間への変換を、カーネル関数を用いて実施してもよい。カーネルの例として、線形、多項式、動径基底関数、及びシグモイドが挙げられる。例えば、線形SVM処理については線形カーネルを用いてもよい。同様に、非線形SVM処理については他のカーネルを用いてもよい。当該実施形態においては多項式カーネルを用いた。 When non-linearly separable, the “learning machine” maps the input feature vector to a higher dimensional space where the linear hyperplane is potentially located. In this embodiment, the conversion from the nonlinear feature space to the linear high-dimensional space may be performed using a kernel function. Examples of kernels include linear, polynomial, radial basis functions, and sigmoids. For example, a linear kernel may be used for linear SVM processing. Similarly, other kernels may be used for nonlinear SVM processing. In this embodiment, a polynomial kernel is used.
例えば画像等のマーク付きコンテンツを識別又は分類するための具体的なシステムを明示したので、性能の構築及び評価が望まれるところだが、やはり、これは説明のための具体的な一実施形態に過ぎず、特許請求の範囲に記載の主題はその範囲をこの特定の実施形態又は手法に限定されないことを注記する。 Although a specific system for identifying or classifying marked content, such as images, has been specified, it is desirable to build and evaluate performance, but this is still only one specific embodiment for illustration. Rather, it is noted that the claimed subject matter is not limited in scope to this particular embodiment or approach.
品質係数が70〜90のJPEG画像7,560個を含む画像データベースを用いた。そのうち3分の1の画像は、異なるデジタルカメラで異なる時間及び場所で撮影した実質的にランダムな写真のセットであった。残りの3分の2は、インターネットからダウンロードした。各画像を768×512又は512×768のいずれかのサイズにトリミングした(中央部分を残した)。同様に、評価のために、データ埋め込み前に、輝度係数は変えずに、画像のクロミナンス成分をゼロに設定する。 An image database containing 7,560 JPEG images with quality factors of 70-90 was used. One third of the images were a set of substantially random photographs taken at different times and places with different digital cameras. The remaining two thirds were downloaded from the Internet. Each image was trimmed to either 768 x 512 or 512 x 768 size (leaving the central portion). Similarly, for evaluation, the chrominance component of the image is set to zero without changing the luminance coefficient before embedding data.
上記性能評価はOutGuess、F5及びMB1のステガノグラフィの検出に主眼を置いたものである。これら3つの手法に対するコードは公的に入手可能である。以下の文献を参照されたい:http://www.outguess.org/;http://wwwrn.inf.tu−dresden.de/〜westfeld/f5.html;http://redwood.ucdavis.edu/phil/papers/iwdw03.htm。JPEG画像中にはかなり多くのゼロBDCT係数があり、ゼロ係数の数量はさまざまであるので、データ埋め込み容量は画像ごとに異なる。一般的には、隠しデータの長さと非ゼロBDCT AC係数の数との比を、JPEG画像に対するデータ埋め込み容量の尺度として用いる。OutGuessに対しては、0.05、0.1及び0.2bpc(非ゼロBDCT AC係数当たりのビット数)が埋め込まれた。結果、それぞれ7498、7452及び7215個のステゴ画像が得られた。F5及びMB1に対しては、0.05、0.1、0.2、及び0.4bpcが埋め込まれ、7560個のステゴ画像が得られる。この評価ではMB1埋め込みのステップサイズは2と等しいことに留意されたい。 The above performance evaluation focuses on detection of OutGuess, F5 and MB1 steganography. Codes for these three approaches are publicly available. See the following document: http: // www. outgoings. org / ; http: // wwwrn. inf. tu-dressen. de / ~ westfeld / f5. html; http: // redwood. ucdavis. edu / phil / papers / iwdw03. htm . Since there are quite a number of zero BDCT coefficients in a JPEG image and the number of zero coefficients varies, the data embedding capacity varies from image to image. In general, the ratio of the length of hidden data to the number of non-zero BDCT AC coefficients is used as a measure of the data embedding capacity for JPEG images. For OutGuess, 0.05, 0.1 and 0.2 bpc (bits per non-zero BDCT AC coefficient) were embedded. As a result, 7498, 7452 and 7215 stego images were obtained, respectively. For F5 and MB1, 0.05, 0.1, 0.2, and 0.4 bpc are embedded, and 7560 stego images are obtained. Note that the MB1 embedded step size is equal to 2 in this evaluation.
半数の画像(及び関連するステゴ画像)をランダムに選択してSVM分類子をトレーニングし、残りの対を用いて上記トレーニングした分類子を評価した。Farid、Shi et al.、Fridrichの手法といった上述の手法、さらに上述の実施形態を、OutGess、F5及びMBスキームの評価検出に適用した。表2に示す結果は20回のランダム試験の算術平均である。また、上述したように、多項式カーネルを用いた。ここでの単位は%であり;TNは真陰性率(true negative rate)を表し、TPは真陽性率(true positive rate)を表し、ARは精度(accuracy)を表す。 Half of the images (and associated stego images) were randomly selected to train the SVM classifier and the remaining pairs were used to evaluate the trained classifier. Farid, Shi et al. The above-described method, such as the Fridrich method, and the above-described embodiment were applied to the evaluation detection of the OutGess, F5 and MB schemes. The results shown in Table 2 are arithmetic averages of 20 random tests. Also, as described above, a polynomial kernel was used. The unit here is%; TN represents the true negative rate, TP represents the true positive rate, and AR represents the accuracy.
同様に、各種方向に沿った特徴の評価の寄与度を調べるため、次元数を下げた特徴を実装した。従って、一回に1方向の特徴を実装した。表4に示す結果は、多項式カーネルを用いた20回のランダム試験の算術平均である。 Similarly, features with a reduced number of dimensions were implemented to investigate the contribution of feature evaluation along various directions. Therefore, one direction feature was implemented at a time. The results shown in Table 4 are arithmetic averages of 20 random tests using a polynomial kernel.
表を比較すると、方向を組合せることで検出率が向上することが分かる。 Comparing the tables, it can be seen that the detection rate is improved by combining the directions.
以上、特定の実施形態を記載したが、言うまでもなく、特許請求の範囲に記載の主題は特定の実施形態又は実装に範囲を限定されないことを理解されたい。例えば、一実施形態においてはハードウェアにおけるものであって、例えばデバイス又はデバイスを組み合わせたものにおいて作動するように実装されていてもよく、別の実施形態においてはソフトウェアにおけるものであってもよい。同様に、ある実施形態では、ファームウェアにおいて、又は、例えばハードウェア、ソフトウェア、及び/又はファームウェアを任意に組み合わせたものとして実装されていてもよい。同様に、一実施形態において、記憶媒体(複数可)等の1つ以上の物品が含まれてもよいが、特許請求の範囲に記載の主題はこの点において範囲を限定されない。例えば1つ以上のCD−ROM及び/又はディスクといったこれらの記憶媒体は、そこに命令を記憶していてもよく、例えばコンピュータシステム、コンピューティングプラットフォーム又はその他のシステム等のシステムによって上記命令が実行された場合に、結果として、特許請求の範囲に記載の主題に係る方法の一実施形態、例えば上述の実施形態の1つ等が実行されてもよい。考えられる一実施例として、コンピューティングプラットフォームは、1つ以上の処理装置又はプロセッサ、1つ以上の入力/出力デバイス(ディスプレイ、キーボード及び/又はマウス等)、及び/又は、1つ以上のメモリ(スタティックランダムアクセスメモリ、ダイナミックランダムアクセスメモリ、フラッシュメモリ、及び/又はハードドライブ等)を含んでもよい。例えば、ディスプレイを用いて、1つ以上のクエリー(相関を持ったもの等)、及び/又は1つ以上の木表現を表示してもよいが、ここにおいても、特許請求の範囲に記載の主題は範囲を当実施例に限定されない。 While specific embodiments have been described above, it will be appreciated that the claimed subject matter is not limited in scope to the specific embodiments or implementations. For example, in one embodiment, it may be implemented in hardware and may be implemented to operate, for example, in a device or combination of devices, and in another embodiment may be in software. Similarly, in some embodiments, it may be implemented in firmware or as any combination of hardware, software, and / or firmware, for example. Similarly, in one embodiment, one or more articles such as storage medium (s) may be included, but claimed subject matter is not limited in scope in this respect. For example, these storage media, such as one or more CD-ROMs and / or disks, may have instructions stored thereon, such as executed by a system such as a computer system, computing platform or other system. As a result, an embodiment of the method according to the claimed subject matter may be performed, such as one of the above-described embodiments. As one possible example, a computing platform may include one or more processing units or processors, one or more input / output devices (such as a display, keyboard and / or mouse), and / or one or more memories ( Static random access memory, dynamic random access memory, flash memory, and / or hard drive, etc.). For example, a display may be used to display one or more queries (such as those with correlations) and / or one or more tree representations, again here the claimed subject matter The scope is not limited to this example.
以上の記載において、特許請求の範囲に記載の主題の種々の態様を説明した。特許請求の範囲に記載の主題が十分に理解されるように、説明上、特定の数値、システム及び/又は構成を示した。しかしながら、上記の具体的な詳細通りでなくとも特許請求の範囲に記載の主題を実行できることは、本開示の恩恵を受ける当業者に明らかであろう。また、特許請求の範囲に記載の主題が不明確にならないように、公知の特徴を省略及び/又は簡略化している場合もある。本明細書では、特定の特徴が図示及び/又は記載されているが、当業者には多くの変形例、置換例、変更例、及び/又は均等物が想到されるであろう。従って、添付の特許請求の範囲は、そのような変形及び/又は変更の全てを、特許請求の範囲に記載の主題の趣旨に入るものとして包含するものであると理解されたい。 In the foregoing description, various aspects of the claimed subject matter have been described. For purposes of explanation, specific numbers, systems and / or configurations are set forth in order to provide a thorough understanding of claimed subject matter. However, it will be apparent to one skilled in the art having the benefit of this disclosure that the claimed subject matter may be practiced without the specific details set forth above. In other instances, well-known features may be omitted and / or simplified so as not to obscure the claimed subject matter. Although specific features are illustrated and / or described herein, many variations, substitutions, modifications, and / or equivalents will occur to those skilled in the art. Therefore, it is to be understood that the appended claims are intended to cover all such modifications and / or modifications as fall within the spirit of the claimed subject matter.
Claims (33)
前記要素を所定範囲の値とするために前記少なくとも1つの係数差分配列の前記要素に対して閾値処理して、少なくとも1つの閾値処理された係数差分配列を取得し;且つ
前記少なくとも1つの閾値処理された係数差分配列を用いて画像分類器をトレーニングして、前記少なくとも1つのトレーニング画像以外の少なくとも1つの画像に隠しデータが存在するかどうかを決定するための、トレーニングされた隠しデータ画像分類器を取得する
方法。Forming at least one coefficient difference array including a plurality of elements, each element generated based at least in part on a difference between the elements of the coefficient array of the frequency domain representation of the at least one training image;
Thresholding the elements of the at least one coefficient difference array to obtain a predetermined range of values to obtain at least one thresholded coefficient difference array; and the at least one threshold process in training image classifier using coefficients difference sequences, wherein at least one training image other than for determining whether the data hidden in at least one image is present, trained hidden data image classification How to get a bowl .
請求項1に記載の方法。The at least one coefficient difference array is formed with respect to at least one of a vertical, horizontal, or diagonal direction;
The method of claim 1.
請求項1に記載の方法。The image classifier includes a distributed processing analyzer for analyzing data based on the statistical variation,
The method of claim 1.
請求項3に記載の方法。The distributed processing analyzer uses SVM processing;
The method of claim 3.
請求項1に記載の方法。The at least one coefficient difference array includes at least three coefficient difference arrays;
The method of claim 1.
請求項5に記載の方法。The at least three coefficient difference arrays include a horizontal coefficient difference array, a vertical coefficient difference array, and a diagonal direction coefficient difference array.
The method of claim 5.
請求項1に記載の方法。The threshold value in the threshold process is variable.
The method of claim 1.
請求項1に記載の方法。The frequency domain representation of the training image includes a DCT block representation;
The method of claim 1.
前記トレーニングされた分類器の適用により得た値に少なくとも部分的に基づいて前記少なくとも1つのトレーニング画像以外の前記画像を分類することとをさらに含む、
請求項1に記載の方法。And applying the trained classifier to the image other than the at least one training image,
Further comprising a classifying the images other than the at least one training image based at least in part on the value obtained by application of the trained classifier,
The method of claim 1.
前記命令は、
少なくとも1つのトレーニング画像の周波数領域表現の係数配列の要素間の差分に少なくとも部分的に基づいて各要素が生成された、複数の要素を含む少なくとも1つの係数差分配列を形成する命令と、
前記要素を所定範囲の値とするために前記少なくとも1つの係数差分配列の前記要素に対して閾値処理して、少なくとも1つの閾値処理された係数差分配列を取得する命令と、
前記少なくとも1つの閾値処理された係数差分配列を用いて画像分類器をトレーニングして、前記少なくとも1つのトレーニング画像以外の少なくとも1つの画像に隠しデータが存在するかどうかを決定するための、トレーニングされた隠しデータ画像分類器を取得する命令と、
を含む物品。An article comprising a computer readable storage medium having stored thereon computer executable instructions comprising:
The instructions are
Instructions for forming at least one coefficient difference array including a plurality of elements, each element generated based at least in part on a difference between elements of a coefficient array of a frequency domain representation of at least one training image;
An instruction for thresholding the elements of the at least one coefficient difference array to obtain the elements within a predetermined range to obtain at least one threshold processed coefficient difference array;
Wherein the image classifier using at least one thresholded coefficient difference sequences in training, said at least one non-training images to determine whether the data hidden in at least one image is present, the training instructions for acquiring has been hidden data image classifier,
Articles containing.
請求項10に記載の物品。The at least one coefficient difference array is formed with respect to at least one of a vertical, horizontal or diagonal direction;
The article of claim 10.
請求項10に記載の物品。The image classifier includes a distributed processing analyzer for analyzing data based on the statistical variation,
The article of claim 10.
請求項12に記載の物品。The distributed processing analyzer uses SVM processing;
The article of claim 12.
請求項10に記載の物品。The at least one coefficient difference array includes at least three coefficient difference arrays;
The article of claim 10.
請求項14に記載の方法。The at least three coefficient difference arrays include a horizontal coefficient difference array, a vertical coefficient difference array, and a diagonal direction coefficient difference array;
The method according to claim 14.
請求項10に記載の物品。The threshold value in the threshold process is variable.
The article of claim 10.
前記トレーニングされた分類器を前記少なくとも1つのトレーニング画像以外の前記画像に適用する命令と、
前記トレーニングされた分類器の適用により得た値に少なくとも部分的に基づいて前記少なくとも1つのトレーニング画像以外の前記画像を分類する命令とをさらに含む、
請求項10に記載の物品。The instructions are
Instructions for applying the trained classifier to the at least one training said image other than the image,
Further comprising instructions and classifying the images other than the at least one training image based at least in part on a value obtained by applying the trained classifier,
The article of claim 10.
前記要素を所定範囲の値とするために前記少なくとも1つの係数差分配列の前記要素に対して閾値処理して、少なくとも1つの閾値処理された係数差分配列を取得する手段と、
前記少なくとも1つの閾値処理された係数差分配列を用いて画像分類器をトレーニングして、前記少なくとも1つのトレーニング画像以外の少なくとも1つの画像に隠しデータが存在するかどうかを決定するための、トレーニングされた隠しデータ画像分類器を取得する手段と
を含む装置。Means for forming at least one coefficient difference array comprising a plurality of elements, each element generated based at least in part on a difference between elements of a coefficient array of a frequency domain representation of at least one training image;
Means for thresholding the elements of the at least one coefficient difference array to obtain the elements within a predetermined range to obtain at least one threshold processed coefficient difference array;
Wherein the image classifier using at least one thresholded coefficient difference sequences in training, said at least one non-training images to determine whether the data hidden in at least one image is present, the training and means for acquiring has been hidden data image classifier.
請求項18に記載の装置。The image classifier includes a distributed processing analyzer for analyzing data based on the statistical variation,
The apparatus according to claim 18.
請求項19に記載の装置。The distributed processing analyzer uses SVM processing.
The apparatus of claim 19.
請求項18に記載の装置。The threshold value in the threshold process is variable.
The apparatus according to claim 18.
前記トレーニングされた分類器の適用により得た値に少なくとも部分的に基づいて前記少なくとも1つのトレーニング画像以外の前記画像を分類する手段とをさらに含む
請求項18に記載の装置。It means for applying the trained classifier to the image other than the at least one training image,
The apparatus of claim 18, further comprising a means for classifying the image other than the at least one training image based at least in part on a value obtained by application of the trained classifier.
請求項9に記載の方法。The classifying includes classifying the images other than the at least one training image as marked or not marked.
The method of claim 9.
請求項1に記載の方法。By training the image classifier further comprises the frequency-domain coefficients of the training image by applying the amplitude process, to form the frequency domain representation,
The method of claim 1.
請求項1に記載の方法。By training the image classifier includes performing said forming by using a plurality of training images, the threshold processing, and the training,
The method of claim 1.
請求項17に記載の物品。The instruction to classify includes classifying the image other than the at least one training image as marked or not marked.
The article of claim 17.
請求項10に記載の物品。The instruction to train further includes an instruction to input a frequency domain coefficient of the training image by applying amplitude processing to form the frequency domain representation.
The article of claim 10.
請求項10に記載の物品。The instruction to train includes an instruction to perform the formation, the threshold processing, and the training using a plurality of training images.
The article of claim 10.
請求項22に記載の装置。The means for classifying includes means for classifying the images other than the at least one training image as marked or not marked.
The apparatus of claim 22.
請求項18に記載の装置。The means for training further comprises means for inputting the frequency domain coefficients of the at least one training image by applying amplitude processing to form the frequency domain representation.
The apparatus according to claim 18.
請求項18に記載の装置。The means for training includes means for performing the formation, the threshold processing, and the training using a plurality of training images.
The apparatus according to claim 18.
前記取得することは、
少なくとも1つのトレーニング画像の周波数領域表現の係数配列の要素間の差分に少なくとも部分的に基づいて各要素が生成された、複数の要素を含む少なくとも1つの係数差分配列を形成することと、
前記要素を所定範囲の値とするために前記少なくとも1つの係数差分配列の前記要素に対して閾値処理して、少なくとも1つの閾値処理された係数差分配列を取得することと、
前記少なくとも1つの閾値処理された係数差分配列を用いて画像分類器をトレーニングすることとを含む
電子計算機。An electronic computer comprising at least one processor configured to obtain a trained hidden data image classifier,
The obtaining is
Forming at least one coefficient difference array including a plurality of elements, each element generated based at least in part on a difference between elements of a coefficient array of a frequency domain representation of at least one training image;
Thresholding the elements of the at least one coefficient difference array to make the elements a predetermined range of values to obtain at least one thresholded coefficient difference array;
Training an image classifier with the at least one thresholded coefficient difference array.
前記要素を所定範囲の値とするために前記少なくとも1つのプロセッサを用いて、前記少なくとも1つの係数差分配列の前記要素に対して閾値処理して、少なくとも1つの閾値処理された係数差分配列を取得し、
前記少なくとも1つのプロセッサを用いて、前記少なくとも1つの閾値処理された係数差分配列を用いて画像分類器をトレーニングして、前記少なくとも1つのトレーニング画像以外の少なくとも1つの画像に隠しデータが存在するかどうかを決定するための、トレーニングされた隠しデータ画像分類器を取得する
方法。At least one coefficient difference array including a plurality of elements, each element generated using at least one processor and based at least in part on the differences between the coefficient array elements of the frequency domain representation of the at least one training image Form the
Using the at least one processor to set the element to a predetermined range of values , thresholding the element of the at least one coefficient difference array to obtain at least one threshold processed coefficient difference array And
Using said at least one processor, in training image classifier, wherein said at least one training data hidden in at least one image other than the image exists with the at least one thresholded coefficient difference sequence how to determine whether a method of obtaining the hidden data image classifier trained.
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| PCT/US2006/001393 WO2007086833A2 (en) | 2006-01-13 | 2006-01-13 | Method for identifying marked images based at least in part on frequency domain coefficient differences |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| JP2009527930A JP2009527930A (en) | 2009-07-30 |
| JP4920045B2 true JP4920045B2 (en) | 2012-04-18 |
Family
ID=38309629
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2008550284A Expired - Fee Related JP4920045B2 (en) | 2006-01-13 | 2006-01-13 | Method for identifying marked images based at least in part on frequency domain coefficient differences |
Country Status (3)
| Country | Link |
|---|---|
| EP (1) | EP1971962A4 (en) |
| JP (1) | JP4920045B2 (en) |
| WO (1) | WO2007086833A2 (en) |
Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05292462A (en) * | 1992-03-13 | 1993-11-05 | Samsung Electron Co Ltd | Method and device for compression-encoding and decoding video |
| JP2005518001A (en) * | 2001-06-05 | 2005-06-16 | ヒューレット・パッカード・カンパニー | Modular intelligent multimedia analysis system |
-
2006
- 2006-01-13 JP JP2008550284A patent/JP4920045B2/en not_active Expired - Fee Related
- 2006-01-13 EP EP06718464A patent/EP1971962A4/en not_active Withdrawn
- 2006-01-13 WO PCT/US2006/001393 patent/WO2007086833A2/en not_active Ceased
Patent Citations (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH05292462A (en) * | 1992-03-13 | 1993-11-05 | Samsung Electron Co Ltd | Method and device for compression-encoding and decoding video |
| JP2005518001A (en) * | 2001-06-05 | 2005-06-16 | ヒューレット・パッカード・カンパニー | Modular intelligent multimedia analysis system |
Also Published As
| Publication number | Publication date |
|---|---|
| WO2007086833A3 (en) | 2009-05-28 |
| JP2009527930A (en) | 2009-07-30 |
| EP1971962A4 (en) | 2011-04-06 |
| WO2007086833A2 (en) | 2007-08-02 |
| EP1971962A2 (en) | 2008-09-24 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Luo et al. | Dvmark: a deep multiscale framework for video watermarking | |
| JP4417419B2 (en) | Input image stego analysis method, apparatus, and computer-readable medium | |
| Zou et al. | Steganalysis based on Markov model of thresholded prediction-error image | |
| Liu et al. | Feature mining and pattern classification for steganalysis of LSB matching steganography in grayscale images | |
| US8270708B2 (en) | Method for identifying marked images based at least in part on frequency domain coefficient differences | |
| US8103054B2 (en) | Method for identifying marked images using statistical moments based at least in part on a JPEG array | |
| Chanu et al. | Image steganography and steganalysis: A survey | |
| Chen et al. | Statistical moments based universal steganalysis using JPEG 2-D array and 2-D characteristic function | |
| Wu et al. | A high capacity reversible data hiding scheme with edge prediction and difference expansion | |
| Tzschoppe et al. | Steganographic system based on higher-order statistics | |
| Zhang et al. | Adaptive reversible image watermarking algorithm based on IWT and level set | |
| Mohamed et al. | A survey on image data hiding techniques | |
| JP4920045B2 (en) | Method for identifying marked images based at least in part on frequency domain coefficient differences | |
| Fadoua et al. | Medical video watermarking scheme for telemedicine applications | |
| Malik | Steganalysis of qim steganography using irregularity measure | |
| Liu et al. | Steganalysis of multi-class JPEG images based on expanded Markov features and polynomial fitting | |
| JP4610653B2 (en) | Method for identifying marked images using statistical moments based at least in part on JPEG sequences | |
| Mohamed et al. | RST Robust watermarking schema based on image normalization and DCT decomposition | |
| KR101094811B1 (en) | Watermarking and Watermark Extraction Method in Wavelet Domain Using Wavelet Transform and Boundary Information | |
| Liu et al. | Steganalysis based on differential statistics | |
| Kumar et al. | An optimally robust digital watermarking algorithm for stereo image coding | |
| Chen | Study of steganalysis methods | |
| Efimushkina et al. | Reversible q-ary watermarking with controllable prediction error and location map-free capability | |
| Magdy et al. | A Survey on Image Data Hiding Techniques. | |
| Nesakumari et al. | Integrated Normalized Content System for Efficient Watermarking |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090507 |
|
| A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100308 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100316 |
|
| RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20100520 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100528 |
|
| RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20100528 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100616 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101206 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110303 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110913 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120123 |
|
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120131 |
|
| R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4920045 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
| FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150210 Year of fee payment: 3 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
| LAPS | Cancellation because of no payment of annual fees |